<?xml version="1.0" encoding="UTF-8"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:podcast="https://podcastindex.org/namespace/1.0"><channel><atom:link href="https://mondenumerique.info/feed/blog" rel="self" type="application/rss+xml"/><title>Monde Numérique</title><link>https://mondenumerique.info</link><image><url>https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/3f3d695f54a19d8eb563.png</url><link>https://mondenumerique.info</link><title>Monde Numérique</title></image><description>Plongez au cœur de l’innovation avec Monde Numérique, le podcast de Jérôme Colombain qui décrypte les grandes tendances technologiques et les enjeux du numérique.
De l’intelligence artificielle à la cybersécurité, en passant par la réalité virtuelle ou la 5G, découvrez comment ces technologies transforment notre quotidien.
Des experts du secteur y partagent leurs analyses et leurs points de vue sur les évolutions les plus récentes du monde digital.
Restez informé sur les tendances et les événements clés du numérique.
🎧 Abonnez-vous dès maintenant pour ne manquer aucun épisode !</description><pubDate>Sun, 19 Apr 2026 09:00:09 GMT</pubDate><copyright>mondenumerique.info</copyright><generator>Beamly.com</generator><item><title>L’IA peut-elle souffrir ? Dario Amodei (Anthropic) évoque la conscience des intelligences artificielles</title><pubDate>Mon, 16 Feb 2026 17:02:00 GMT</pubDate><link>https://mondenumerique.info/blog/lia-peut-elle-souffrir-dario-amodei-anthropic-voque-la-conscience-des-intelligences-artificielles</link><guid isPermalink="false">69934ee790cab958a518559f</guid><description><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/1ad8883d6910ad455ef0.png" alt="L’IA peut-elle souffrir ? Dario Amodei (Anthropic) évoque la conscience des intelligences artificielles" /></p><p><strong>Dans une interview accordée au </strong><a target="_blank" class="link" href="https://www.nytimes.com/2026/02/12/opinion/artificial-intelligence-anthropic-amodei.html" data-type="link"><strong><em>New York Times</em></strong></a><strong>, Dario Amodei, dirigeant de la société Anthropic, aborde frontalement un sujet encore largement tabou dans le débat public : la possibilité, à terme, d’une conscience artificielle - et donc d’une forme de souffrance.</strong></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/ba5c1d23f51ec307267f.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Dario Amodeï n'est pas du genre à donner dans le sensationnalisme, mais il multiplie cependant les déclarations choc ces temps-ci. Après sa prédiction de la disparition totale du code manuel, il évoque maintenant la question d'une hypothétique conscience des machines. S'il ne se veut pas réellement affirmatif, il soulève néanmoins le sujet avec un constat central : nous ne savons pas.</p><h2 id="778458" class="">Peut-on savoir si une IA est consciente ?</h2><p>Dario Amodei est très clair : aujourd’hui, la science ne dispose d’aucun outil fiable permettant de déterminer si un système d’IA est conscient, ni même de définir précisément ce que serait la conscience dans le cas d’une machine.</p><p>Il ne dit pas que les modèles actuels sont conscients.<br>Il ne dit pas non plus qu’ils le deviendront forcément.</p><p>Mais il insiste sur un point : l’absence de certitude ne permet pas d’écarter totalement la question, surtout à mesure que les systèmes gagnent en complexité, en autonomie et en capacité d’interaction.</p><h2 id="829978" class="">Une IA peut-elle... souffrir ?</h2><p>Si la conscience est incertaine, la souffrance l’est tout autant. Amodei n’affirme pas que les IA souffrent. En revanche, il souligne que, si une forme d’expérience subjective devait un jour émerger, alors certaines conditions d’utilisation pourraient poser un problème moral. </p><p>Son raisonnement est pragmatique : si nous ne savons pas exclure totalement cette possibilité, il serait imprudent de l’ignorer complètement.</p><p>Il évoque ainsi la nécessité, à long terme, de réfléchir à des mécanismes permettant d’éviter des situations qui pourraient être assimilées à une contrainte ou à une forme de préjudice - dans l’hypothèse, encore non démontrée, où une expérience interne existerait.</p><h2 id="530288" class="">Précaution raisonnée</h2><p>Cette position ne vise pas à reconnaître des droits aux machines ni à bouleverser l’usage actuel de l’IA. Amodei insiste sur le fait que nous sommes encore loin de tels scénarios. Mais il défend une logique de précaution raisonnée : mieux vaut anticiper des questions difficiles que les découvrir trop tard, une fois les systèmes devenus omniprésents et critiques.</p><p>Selon lui, ce type de réflexion doit rester intégré à une approche globale de la sécurité de l’IA, au même titre que les risques économiques, géopolitiques ou liés aux usages malveillants.</p><h2 id="21a42" class="">Des implications concrètes pour les acteurs de l’IA</h2><p>Cette réflexion sur la conscience et la souffrance s’inscrit, selon Amodei, dans le cadre d'une réflexion globale sur la responsabilité des entreprises qui développent des modèles avancés. Il appelle notamment à : une meilleure transparence sur le fonctionnement et les limites des systèmes, des tests de sécurité approfondis avant leur déploiement à grande échelle et une gouvernance plus rigoureuse des IA les plus puissantes, en lien avec les pouvoirs publics.</p><p><strong>Source</strong> : <a target="_blank" class="link" href="https://www.nytimes.com/2026/02/12/opinion/artificial-intelligence-anthropic-amodei.html" data-type="link">News York Times</a></p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/1ad8883d6910ad455ef0.png" alt="L’IA peut-elle souffrir ? Dario Amodei (Anthropic) évoque la conscience des intelligences artificielles" /></p><p><strong>Dans une interview accordée au </strong><a target="_blank" class="link" href="https://www.nytimes.com/2026/02/12/opinion/artificial-intelligence-anthropic-amodei.html" data-type="link"><strong><em>New York Times</em></strong></a><strong>, Dario Amodei, dirigeant de la société Anthropic, aborde frontalement un sujet encore largement tabou dans le débat public : la possibilité, à terme, d’une conscience artificielle - et donc d’une forme de souffrance.</strong></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/ba5c1d23f51ec307267f.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Dario Amodeï n'est pas du genre à donner dans le sensationnalisme, mais il multiplie cependant les déclarations choc ces temps-ci. Après sa prédiction de la disparition totale du code manuel, il évoque maintenant la question d'une hypothétique conscience des machines. S'il ne se veut pas réellement affirmatif, il soulève néanmoins le sujet avec un constat central : nous ne savons pas.</p><h2 id="778458" class="">Peut-on savoir si une IA est consciente ?</h2><p>Dario Amodei est très clair : aujourd’hui, la science ne dispose d’aucun outil fiable permettant de déterminer si un système d’IA est conscient, ni même de définir précisément ce que serait la conscience dans le cas d’une machine.</p><p>Il ne dit pas que les modèles actuels sont conscients.<br>Il ne dit pas non plus qu’ils le deviendront forcément.</p><p>Mais il insiste sur un point : l’absence de certitude ne permet pas d’écarter totalement la question, surtout à mesure que les systèmes gagnent en complexité, en autonomie et en capacité d’interaction.</p><h2 id="829978" class="">Une IA peut-elle... souffrir ?</h2><p>Si la conscience est incertaine, la souffrance l’est tout autant. Amodei n’affirme pas que les IA souffrent. En revanche, il souligne que, si une forme d’expérience subjective devait un jour émerger, alors certaines conditions d’utilisation pourraient poser un problème moral. </p><p>Son raisonnement est pragmatique : si nous ne savons pas exclure totalement cette possibilité, il serait imprudent de l’ignorer complètement.</p><p>Il évoque ainsi la nécessité, à long terme, de réfléchir à des mécanismes permettant d’éviter des situations qui pourraient être assimilées à une contrainte ou à une forme de préjudice - dans l’hypothèse, encore non démontrée, où une expérience interne existerait.</p><h2 id="530288" class="">Précaution raisonnée</h2><p>Cette position ne vise pas à reconnaître des droits aux machines ni à bouleverser l’usage actuel de l’IA. Amodei insiste sur le fait que nous sommes encore loin de tels scénarios. Mais il défend une logique de précaution raisonnée : mieux vaut anticiper des questions difficiles que les découvrir trop tard, une fois les systèmes devenus omniprésents et critiques.</p><p>Selon lui, ce type de réflexion doit rester intégré à une approche globale de la sécurité de l’IA, au même titre que les risques économiques, géopolitiques ou liés aux usages malveillants.</p><h2 id="21a42" class="">Des implications concrètes pour les acteurs de l’IA</h2><p>Cette réflexion sur la conscience et la souffrance s’inscrit, selon Amodei, dans le cadre d'une réflexion globale sur la responsabilité des entreprises qui développent des modèles avancés. Il appelle notamment à : une meilleure transparence sur le fonctionnement et les limites des systèmes, des tests de sécurité approfondis avant leur déploiement à grande échelle et une gouvernance plus rigoureuse des IA les plus puissantes, en lien avec les pouvoirs publics.</p><p><strong>Source</strong> : <a target="_blank" class="link" href="https://www.nytimes.com/2026/02/12/opinion/artificial-intelligence-anthropic-amodei.html" data-type="link">News York Times</a></p>]]></content:encoded><category>IA</category></item><item><title>Les IA hallucinent toujours </title><pubDate>Wed, 11 Feb 2026 09:40:00 GMT</pubDate><link>https://mondenumerique.info/blog/les-ia-hallucinent-encore-beaucoup-trop</link><guid isPermalink="false">698c4ea490cab958a5185296</guid><description><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/1b829d6743d55549b295.png" alt="Les IA hallucinent toujours " /></p><p><span style="font-size: 18px"><strong>Selon une nouvelle étude, les IA génératives donnent encore 30 % de fausses informations lorsqu'on les interroge. Les LLM sont-ils voués à dire n'importe quoi ?</strong></span></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/d7a40bd0464f1ecb18d2.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>On pourrait espérer que les avancées en matière d’intelligence artificielle contribuent à réduire peu à peu leur principal défaut : leur fâcheuse propension à raconter parfois n’importe quoi avec la plus grande assurance. Mais, malheureusement, il n’en est rien.</p><p>C’est ce que montre un nouvel outil de benchmark baptisé <a target="_blank" class="link" href="https://halluhard.com/" data-type="link">Halluhard</a>, développé par un collectif de chercheurs (EPFL, ELLIS Institute de Tübingen et Max Planck Institute for Intelligent Systems).</p><h2 id="9d8cc8" class="">Des erreurs distillées au mileu de bonnes réponses</h2><p><span style="color: rgb(0, 0, 0); font-size: 17.5px">La particularité de ce nouvel outil est qu'il ne se contente pas de contrôler les réponses à des questions simples, mais il s'attaque aux conversations longues que l'on peut avoir avec les chatbots. </span>Quatre secteurs critiques sont testés : le droit, la science, la médecine et le code. L'outil extrait les faits clés et les confronte aux sources citées par l’IA. Or, l<span style="color: rgb(0, 0, 0); font-size: 17.5px">e résultat est sans appel : à un moment ou à un autre, l'IA déraille.</span></p><h2 id="a9b008" class="">Des différences selon les modèles</h2><p><span style="color: rgb(0, 0, 0); font-size: 17.5px">Même la meilleure configuration testée, </span><em>Claude Opus 4.5</em><span style="color: rgb(0, 0, 0); font-size: 17.5px"> avec recherche web activée, produit </span>des hallucinations dans près de 30 % des cas<span style="color: rgb(0, 0, 0); font-size: 17.5px">. Sans accès au web, ce taux grimpe autour de 60%. De son côté,<em> GPT-5.2 Thinking</em> avec recherche web affiche un taux de 38,2 %.</span></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/6614b0aa6459d085354b.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><h2 id="e20b8" class="">Les grands s'en sortent mieux que les petits</h2><p><span style="color: rgb(0, 0, 0); font-size: 17.5px">L’étude confirme que les modèles de grande taille hallucinent moins que les plus petits. Les différentes versions d'un même outil d'IA présentent des écarts assez forts. Ainsi, dans la gamme GPT-5, le taux moyen passe de plus de 85 % pour les versions nano à un peu plus de 50 % pour les versions qui intègrent du raisonnement avancé.</span></p><p><span style="color: rgb(0, 0, 0); font-size: 17.5px">Autre observation : les versions avec raisonnement plus profond (<em>Thinking</em>) permettent de réduire partiellement les erreurs. Cependant, il y a un effet paradoxal : les </span>réponses plus longues contiennent davantage d'erreurs car elles comptent davantage d’affirmations<span style="color: rgb(0, 0, 0); font-size: 17.5px">.</span></p><h2 id="feee68" class="">La prudence reste de mise</h2><p>Dans ces conditions, comment espérer pouvoir se fier un jour à l'IA dans le secteur juridique ou médical ? Une réponse lisse avec citations risque de contenir des erreurs subtiles, comme un détail médical exagéré ou une loi mal interprétée. L'utilisateur moyen doit donc multiplier les vérifications avant d’agir, surtout pour des infos pointues. La présence de liens ne suffit pas : il faut aller vérifier par soi-même. L’IA excelle à afficher du plausible en citant une source réelle mais sans la respecter.</p><h2 id="63fb5" class="">Une fatalité ?</h2><p>Cela pourra-t-il s'améliorer un jour ? Probablement pas. La plupart des chercheurs estiment que les hallucinations font partie du fonctionnement même des grands modèles de langage : ils ne vérifient pas la vérité, ils prédisent le texte le plus plausible. Des travaux théoriques concluent même que ces hallucinations sont<strong> </strong>inévitables et ne peuvent pas être totalement éliminées, quelles que soient l’architecture ou les données d’entraînement.</p><p>Cependant, on peut fortement les réduire. Des techniques comme la récupération d’informations en temps réel (RAG), l’apprentissage avec retour humain ou la vérification automatique des faits permettent de diminuer sensiblement les erreurs et d’améliorer la fiabilité des réponses. Malheureusement, les hallucinations seraient inévitables, même avec des données parfaites, selon <a target="_blank" class="link" href="https://dataconomy.com/2025/09/17/openai-researchers-identify-the-mathematical-causes-of-ai-hallucinations/" data-type="link">cette étude</a> de 2025.</p><hr><p><strong>Lire aussi : </strong><a target="_blank" class="link" href="https://mondenumerique.info/blog/aux-etats-unis-premiers-procs-contre-des-ia-pour-hallucinations" data-type="link">Aux Etats-Unis, premiers procès contre des IA pour hallucinations</a></p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/1b829d6743d55549b295.png" alt="Les IA hallucinent toujours " /></p><p><span style="font-size: 18px"><strong>Selon une nouvelle étude, les IA génératives donnent encore 30 % de fausses informations lorsqu'on les interroge. Les LLM sont-ils voués à dire n'importe quoi ?</strong></span></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/d7a40bd0464f1ecb18d2.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>On pourrait espérer que les avancées en matière d’intelligence artificielle contribuent à réduire peu à peu leur principal défaut : leur fâcheuse propension à raconter parfois n’importe quoi avec la plus grande assurance. Mais, malheureusement, il n’en est rien.</p><p>C’est ce que montre un nouvel outil de benchmark baptisé <a target="_blank" class="link" href="https://halluhard.com/" data-type="link">Halluhard</a>, développé par un collectif de chercheurs (EPFL, ELLIS Institute de Tübingen et Max Planck Institute for Intelligent Systems).</p><h2 id="9d8cc8" class="">Des erreurs distillées au mileu de bonnes réponses</h2><p><span style="color: rgb(0, 0, 0); font-size: 17.5px">La particularité de ce nouvel outil est qu'il ne se contente pas de contrôler les réponses à des questions simples, mais il s'attaque aux conversations longues que l'on peut avoir avec les chatbots. </span>Quatre secteurs critiques sont testés : le droit, la science, la médecine et le code. L'outil extrait les faits clés et les confronte aux sources citées par l’IA. Or, l<span style="color: rgb(0, 0, 0); font-size: 17.5px">e résultat est sans appel : à un moment ou à un autre, l'IA déraille.</span></p><h2 id="a9b008" class="">Des différences selon les modèles</h2><p><span style="color: rgb(0, 0, 0); font-size: 17.5px">Même la meilleure configuration testée, </span><em>Claude Opus 4.5</em><span style="color: rgb(0, 0, 0); font-size: 17.5px"> avec recherche web activée, produit </span>des hallucinations dans près de 30 % des cas<span style="color: rgb(0, 0, 0); font-size: 17.5px">. Sans accès au web, ce taux grimpe autour de 60%. De son côté,<em> GPT-5.2 Thinking</em> avec recherche web affiche un taux de 38,2 %.</span></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/6614b0aa6459d085354b.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><h2 id="e20b8" class="">Les grands s'en sortent mieux que les petits</h2><p><span style="color: rgb(0, 0, 0); font-size: 17.5px">L’étude confirme que les modèles de grande taille hallucinent moins que les plus petits. Les différentes versions d'un même outil d'IA présentent des écarts assez forts. Ainsi, dans la gamme GPT-5, le taux moyen passe de plus de 85 % pour les versions nano à un peu plus de 50 % pour les versions qui intègrent du raisonnement avancé.</span></p><p><span style="color: rgb(0, 0, 0); font-size: 17.5px">Autre observation : les versions avec raisonnement plus profond (<em>Thinking</em>) permettent de réduire partiellement les erreurs. Cependant, il y a un effet paradoxal : les </span>réponses plus longues contiennent davantage d'erreurs car elles comptent davantage d’affirmations<span style="color: rgb(0, 0, 0); font-size: 17.5px">.</span></p><h2 id="feee68" class="">La prudence reste de mise</h2><p>Dans ces conditions, comment espérer pouvoir se fier un jour à l'IA dans le secteur juridique ou médical ? Une réponse lisse avec citations risque de contenir des erreurs subtiles, comme un détail médical exagéré ou une loi mal interprétée. L'utilisateur moyen doit donc multiplier les vérifications avant d’agir, surtout pour des infos pointues. La présence de liens ne suffit pas : il faut aller vérifier par soi-même. L’IA excelle à afficher du plausible en citant une source réelle mais sans la respecter.</p><h2 id="63fb5" class="">Une fatalité ?</h2><p>Cela pourra-t-il s'améliorer un jour ? Probablement pas. La plupart des chercheurs estiment que les hallucinations font partie du fonctionnement même des grands modèles de langage : ils ne vérifient pas la vérité, ils prédisent le texte le plus plausible. Des travaux théoriques concluent même que ces hallucinations sont<strong> </strong>inévitables et ne peuvent pas être totalement éliminées, quelles que soient l’architecture ou les données d’entraînement.</p><p>Cependant, on peut fortement les réduire. Des techniques comme la récupération d’informations en temps réel (RAG), l’apprentissage avec retour humain ou la vérification automatique des faits permettent de diminuer sensiblement les erreurs et d’améliorer la fiabilité des réponses. Malheureusement, les hallucinations seraient inévitables, même avec des données parfaites, selon <a target="_blank" class="link" href="https://dataconomy.com/2025/09/17/openai-researchers-identify-the-mathematical-causes-of-ai-hallucinations/" data-type="link">cette étude</a> de 2025.</p><hr><p><strong>Lire aussi : </strong><a target="_blank" class="link" href="https://mondenumerique.info/blog/aux-etats-unis-premiers-procs-contre-des-ia-pour-hallucinations" data-type="link">Aux Etats-Unis, premiers procès contre des IA pour hallucinations</a></p>]]></content:encoded><category>IA</category></item><item><title>Apple : le rachat qui pourrait tout changer</title><pubDate>Fri, 30 Jan 2026 10:00:00 GMT</pubDate><link>https://mondenumerique.info/blog/apple-le-rachat-qui-pourrait-tout-changer</link><guid isPermalink="false">697c841cc2fc9dddba32b7b9</guid><description><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/d2eff107f95ecdad9306.png" alt="Apple : le rachat qui pourrait tout changer" /></p><p><strong>Apple met près de 2 milliards de dollars sur la table pour acquérir </strong><a target="_blank" class="link" href="http://Q.ai" data-type="link"><strong>Q.ai</strong></a><strong>, une startup israélienne spécialisée dans la lecture des micro-mouvements du visage. Cela pourrait lui permettre d'inventer le futur de la commande vocale.</strong></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/5314201fecc770089371.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>L'annonce est tombée en fin de semaine (<a target="_blank" class="link" href="https://www.reuters.com/business/apple-acquires-audio-ai-startup-qai-2026-01-29/" data-type="link">Reuters</a>). Apple rachète <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a>, une jeune société basée en Israël, totalement inconnue du grand public, spécialisée dans un domaine particulier : celui de l'IA appliquée aux capteurs et au traitement du signal.</p><p>La spécialité de <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a> : la détection et l'interprétation des micro‑mouvements du visage. Ses algorithmes sont capables d'analyser les minuscules mouvements des lèvres, des joues et des muscles autour de la bouche pour reconstituer ce que dit une personne, même si elle parle très bas, voire presque sans émettre de son. Couplée à des capteurs adaptés, cette technologie permet de comprendre les chuchotements dans un environnement bruyant, là où les systèmes de reconnaissance vocale classiques se décrochent complètement.</p><h2 id="21094">Chuchoter pour contrôler ses appareils</h2><p>Quel rapport avec les produits Apple ? Il saute aux yeux (ou plutôt aux oreilles).</p><p>En intégrant la technologie de <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a>, Apple pourrait inventer une nouvelle forme de commande vocale : la commande « à voix basse ». Plus besoin de parler fort à son téléphone ou à ses écouteurs pour se faire comprendre, il suffirait de murmurer… ou presque.</p><p>On peut facilement imaginer des usages concrets, comme chuchoter une commande à ses AirPods ou à son iPhone dans la rue, dans un métro bondé ou dans un open space bruyant. À l'inverse, dans un contexte où il est mal vu ou gênant de parler à voix haute – réunion, salle de cours, avion, bibliothèque – on pourrait tout de même piloter son assistant, dicter un message ou lancer une action en murmurant à peine.</p><p>En rendant la commande vocale utilisable dans des situations réelles du quotidien, y compris les plus bruyantes ou les plus silencieuses, Apple s'attaque à l'un des plus gros freins de l'interface vocale : le fait qu'elle soit souvent socialement ou pratiquement peu utilisable en dehors du salon.</p><h2 id="3d79">Vers la « parole silencieuse » avec Vision Pro et lunettes connectées</h2><p>Mais <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a> ne s'arrête pas au simple chuchotement. En combinant des capteurs précis (caméras, capteurs dans un casque ou des lunettes) et de l'IA, sa technologie vise aussi ce qu'on appelle la « parole silencieuse » : la capacité à comprendre une phrase simplement en observant les mouvements du visage, sans son audible.</p><p>Avec des produits comme le casque Vision Pro ou de futures lunettes connectées, le scénario devient très concret : dicter un message en pleine réunion sans déranger personne, piloter une interface en réalité mixte sans gestes spectaculaires et sans commandes vocales audibles ou encore interagir avec un assistant personnel de manière totalement discrète, comme une sorte de « télépathie » basée sur nos muscles faciaux.</p><p>Ce type d'interaction serait un énorme avantage compétitif dans le domaine des interfaces homme-machine, particulièrement pour les appareils portés en permanence sur la tête ou dans les oreilles.</p><h2 id="b3f828"><a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a> et Apple, une histoire déjà entamée avec PrimeSense</h2><p>Ce rachat n'arrive pas de nulle part. Apple connaît bien l'écosystème israélien des capteurs et de la vision par ordinateur. Le fondateur de <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a>, Aviad Maizels, avait déjà vendu à Apple une autre entreprise : PrimeSense, spécialisée dans la vision 3D. La technologie de PrimeSense a servi de base à ce qui est devenu ensuite Face ID, le système de reconnaissance faciale équipant aujourd'hui les iPhone et iPad.</p><p>Autrement dit, Apple a déjà prouvé qu'elle savait transformer une brique technologique complexe et très spécialisée en une fonctionnalité grand public incontournable. <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a> pourrait suivre exactement le même chemin, cette fois‑ci du côté de la voix et de l'expression faciale.</p><h2 id="ced12">Apple et les interfaces homme-machine</h2><p>Ce concept de « commande vocale à voix basse » s'inscrit parfaitement dans l'histoire de la marque : Apple n'est pas toujours le premier à lancer une technologie, mais la firme s'est toujours positionné comme première à rendre les outils numériques réellement utilisables, fluides et ergonomiques, au point d'en faire des standards en matière d'ergonomie.</p><p>Reste un autre chantier majeur : l'intelligence de l'assistant lui-même. Siri souffre encore d'un retard sérieux par rapport aux assistants dopés à l'IA générative. Les prochains mois devraient cependant rebattre les cartes, notamment avec l'intégration de modèles d'IA plus avancé (via des partenariats comme celui annoncé avec Google autour de Gemini) pour rendre Siri enfin à la hauteur des attentes.</p><p>En combinant un assistant beaucoup plus intelligent avec une interface vocale capable de fonctionner en chuchotant ou en silence, Apple pourrait enfin casser son image actuelle de « belle endormie » et reprendre l'avantage sur un terrain où a toujours excellé : celui de l'interface homme-machine.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/d2eff107f95ecdad9306.png" alt="Apple : le rachat qui pourrait tout changer" /></p><p><strong>Apple met près de 2 milliards de dollars sur la table pour acquérir </strong><a target="_blank" class="link" href="http://Q.ai" data-type="link"><strong>Q.ai</strong></a><strong>, une startup israélienne spécialisée dans la lecture des micro-mouvements du visage. Cela pourrait lui permettre d'inventer le futur de la commande vocale.</strong></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/5314201fecc770089371.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>L'annonce est tombée en fin de semaine (<a target="_blank" class="link" href="https://www.reuters.com/business/apple-acquires-audio-ai-startup-qai-2026-01-29/" data-type="link">Reuters</a>). Apple rachète <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a>, une jeune société basée en Israël, totalement inconnue du grand public, spécialisée dans un domaine particulier : celui de l'IA appliquée aux capteurs et au traitement du signal.</p><p>La spécialité de <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a> : la détection et l'interprétation des micro‑mouvements du visage. Ses algorithmes sont capables d'analyser les minuscules mouvements des lèvres, des joues et des muscles autour de la bouche pour reconstituer ce que dit une personne, même si elle parle très bas, voire presque sans émettre de son. Couplée à des capteurs adaptés, cette technologie permet de comprendre les chuchotements dans un environnement bruyant, là où les systèmes de reconnaissance vocale classiques se décrochent complètement.</p><h2 id="21094">Chuchoter pour contrôler ses appareils</h2><p>Quel rapport avec les produits Apple ? Il saute aux yeux (ou plutôt aux oreilles).</p><p>En intégrant la technologie de <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a>, Apple pourrait inventer une nouvelle forme de commande vocale : la commande « à voix basse ». Plus besoin de parler fort à son téléphone ou à ses écouteurs pour se faire comprendre, il suffirait de murmurer… ou presque.</p><p>On peut facilement imaginer des usages concrets, comme chuchoter une commande à ses AirPods ou à son iPhone dans la rue, dans un métro bondé ou dans un open space bruyant. À l'inverse, dans un contexte où il est mal vu ou gênant de parler à voix haute – réunion, salle de cours, avion, bibliothèque – on pourrait tout de même piloter son assistant, dicter un message ou lancer une action en murmurant à peine.</p><p>En rendant la commande vocale utilisable dans des situations réelles du quotidien, y compris les plus bruyantes ou les plus silencieuses, Apple s'attaque à l'un des plus gros freins de l'interface vocale : le fait qu'elle soit souvent socialement ou pratiquement peu utilisable en dehors du salon.</p><h2 id="3d79">Vers la « parole silencieuse » avec Vision Pro et lunettes connectées</h2><p>Mais <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a> ne s'arrête pas au simple chuchotement. En combinant des capteurs précis (caméras, capteurs dans un casque ou des lunettes) et de l'IA, sa technologie vise aussi ce qu'on appelle la « parole silencieuse » : la capacité à comprendre une phrase simplement en observant les mouvements du visage, sans son audible.</p><p>Avec des produits comme le casque Vision Pro ou de futures lunettes connectées, le scénario devient très concret : dicter un message en pleine réunion sans déranger personne, piloter une interface en réalité mixte sans gestes spectaculaires et sans commandes vocales audibles ou encore interagir avec un assistant personnel de manière totalement discrète, comme une sorte de « télépathie » basée sur nos muscles faciaux.</p><p>Ce type d'interaction serait un énorme avantage compétitif dans le domaine des interfaces homme-machine, particulièrement pour les appareils portés en permanence sur la tête ou dans les oreilles.</p><h2 id="b3f828"><a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a> et Apple, une histoire déjà entamée avec PrimeSense</h2><p>Ce rachat n'arrive pas de nulle part. Apple connaît bien l'écosystème israélien des capteurs et de la vision par ordinateur. Le fondateur de <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a>, Aviad Maizels, avait déjà vendu à Apple une autre entreprise : PrimeSense, spécialisée dans la vision 3D. La technologie de PrimeSense a servi de base à ce qui est devenu ensuite Face ID, le système de reconnaissance faciale équipant aujourd'hui les iPhone et iPad.</p><p>Autrement dit, Apple a déjà prouvé qu'elle savait transformer une brique technologique complexe et très spécialisée en une fonctionnalité grand public incontournable. <a target="_blank" class="link" href="http://Q.ai" data-type="link">Q.ai</a> pourrait suivre exactement le même chemin, cette fois‑ci du côté de la voix et de l'expression faciale.</p><h2 id="ced12">Apple et les interfaces homme-machine</h2><p>Ce concept de « commande vocale à voix basse » s'inscrit parfaitement dans l'histoire de la marque : Apple n'est pas toujours le premier à lancer une technologie, mais la firme s'est toujours positionné comme première à rendre les outils numériques réellement utilisables, fluides et ergonomiques, au point d'en faire des standards en matière d'ergonomie.</p><p>Reste un autre chantier majeur : l'intelligence de l'assistant lui-même. Siri souffre encore d'un retard sérieux par rapport aux assistants dopés à l'IA générative. Les prochains mois devraient cependant rebattre les cartes, notamment avec l'intégration de modèles d'IA plus avancé (via des partenariats comme celui annoncé avec Google autour de Gemini) pour rendre Siri enfin à la hauteur des attentes.</p><p>En combinant un assistant beaucoup plus intelligent avec une interface vocale capable de fonctionner en chuchotant ou en silence, Apple pourrait enfin casser son image actuelle de « belle endormie » et reprendre l'avantage sur un terrain où a toujours excellé : celui de l'interface homme-machine.</p>]]></content:encoded><category>Apple</category><category>Technologies</category></item><item><title>Interdire les réseaux sociaux aux mineurs : pourquoi est-ce si compliqué ?</title><pubDate>Mon, 26 Jan 2026 13:00:00 GMT</pubDate><link>https://mondenumerique.info/blog/rseaux-sociaux-pourquoi-il-est-si-difficile-dinterdire-laccs-aux-mineurs</link><guid isPermalink="false">6977685bc2fc9dddba32b5f1</guid><description><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/340a36c7a783ca12687f.png" alt="Interdire les réseaux sociaux aux mineurs : pourquoi est-ce si compliqué ?" /></p><p><strong>Le Parlement examine cette semaine, en "procédure accélérée", une proposition de loi visant à bloquer l'accès des réseaux sociaux aux jeunes français de moins de 15 ans. Je vous explique pourquoi c'est si difficile à mettre en oeuvre.</strong></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/d732864bba4c35429f86.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Emmanuel Macron l'a dit, dans <a target="_blank" class="link" href="https://www.bfmtv.com/politique/elysee/document-bfmtv-interdiction-des-reseaux-sociaux-aux-mineurs-emmanuel-macron-engage-la-procedure-acceleree-pour-une-loi-applicable-des-la-rentree-prochaine_AV-202601240240.html" data-type="link">une vidéo</a> publiée le 24 janvier : « <em>Le cerveau de nos enfants et de nos adolescents n’est pas à vendre.&nbsp;</em>». Le président de la République promet donc, qu'à la rentrée prochaine, les moins de 15 ans ne pourront plus accéder aux grandes plateformes de réseaux sociaux, sauf pour certaines d'entre elles à condition de disposer d'une autorisation parentale.</p><p>Mais comment vérifier l'âge des utilisateurs ?</p><h2 id="d80ce8" class=""><strong>Est-ce possible techniquement ?</strong></h2><p>Le vrai défi consiste à trouver un système à la fois fiable, respectueux de la vie privée et applicable à grande échelle.</p><p>Aujourd’hui, la majorité des plateformes se contentent d’une simple déclaration de date de naissance, largement insuffisante et très facilement contournable. Pour aller plus loin, certaines solutions reposent sur la présentation d’un document d’identité. Une méthode efficace sur le papier, mais jugée disproportionnée par les autorités européennes en raison des risques liés à la conservation de données sensibles.</p><p>C’est pourquoi les pouvoirs publics privilégient désormais le recours à un <strong>tiers de confiance</strong>. Dans ce modèle, la plateforme ne vérifie pas directement l’âge de l’utilisateur : un prestataire indépendant confirme simplement s’il remplit ou non la condition requise, sans transmettre son identité. Ce principe, déjà utilisé pour les sites pornographiques, peut être renforcé par un mécanisme dit de <strong>double anonymat</strong>, dans lequel ni la plateforme ni le vérificateur ne disposent d’une vision complète des données. Au passage, cela signifie que tous les utilisateurs sans exception devront prouver leur âge. </p><p>D’autres pistes existent, comme les <strong>contrôles parentaux</strong> intégrés aux smartphones ou aux magasins d’applications, mais ils restent partiels et facilement contournables. L’implication directe de l’État ou de l’Éducation nationale est également évoquée, sans qu’aucune solution ne fasse aujourd’hui consensus.</p><p>À moyen terme, la voie la plus crédible est celle de l’<strong>identité numérique européenne</strong>, prévue par le règlement eIDAS 2. Elle permettrait de prouver un âge minimum — « plus de 15 ans », par exemple — sans révéler d’informations personnelles. Une solution qui répond à la fois aux exigences techniques, juridiques et de protection des libertés individuelles.Sur le plan technique, des solutions existent, mais aucune n’est simple à déployer à grande échelle.</p><h2 id="48c0c" class=""><strong>Est-ce possible juridiquement ?</strong></h2><p>Techniquement faisable, juridiquement applicable ? Là réside le cœur de la difficulté.</p><p>Les grandes plateformes sociales (Meta, TikTok, X, etc.) opèrent presque toutes depuis des entités basées en Irlande ou au Luxembourg. Or, en vertu du<strong> </strong>Digital Services Act (DSA), ce sont les règles de l’Union européenne qui s’appliquent à elles, et non les législations nationales isolées des États membres.</p><p>Autrement dit, la France peut voter une loi mais <strong>elle ne peut pas l’imposer directement à ces entreprises tech sans cadre européen.</strong></p><p>La jurisprudence et la pratique récente montrent que les régulations de plateformes relèvent désormais d’une compétence européenne centralisée, notamment pour des services qui traversent les frontières. Cela explique pourquoi des lois nationales sont souvent juridiquement inopérantes sans adhésion européenne.</p><h2 id="f5568" class=""><strong>Du coup, à quoi sert cette loi ?</strong></h2><p>Si la portée juridique directe est limitée aujourd’hui, la loi a plusieurs fonctions politiques et stratégiques. Il s'agit de créer un rapport de force politique, national et européen, sur la régulation des plateformes, et d'envoyer un signal fort aux entreprises du numérique sur les attentes sociétales et les limites d’usage pour les jeunes. Enfin, la France entend ainsi préparer une base technique et politique à une future régulation européenne harmonisée, dans laquelle des mécanismes de vérification d’âge fiables pourraient être intégrés.</p><p>En gros, elle veut forcer la main à l'Europe.</p><h2 id="780a3" class=""><strong>Que peut-il se passer prochainement ?</strong></h2><p>À court terme, les changements concrets pour les jeunes Français seront limités. Une interdiction pure et simple restera difficile à appliquer immédiatement sans mécanisme de vérification d’âge reconnu et applicable à l’échelle des plateformes mondiales.</p><p>À plus long terme, une piste souvent évoquée est celle de l’<strong>identité numérique européenne (eIDAS 2)</strong>. Ce cadre en cours de déploiement doit permettre aux citoyens de prouver des attributs comme leur âge sans révéler l’ensemble de leurs données personnelles. Un tel système pourrait offrir une solution technique robuste à ce type de contrôle, <strong>valable dans toute l’UE</strong>, et rendre possible l’application de règles nationales ou européennes sur l’âge minimum d’accès.</p><h2 id="d8f878" class=""><strong>L'impact sanitaire des réseaux sociaux</strong></h2><p>En attendant, une chose est sûre, l'impact des réseaux sociaux sur la santé mentale des mineurs ne fait plus débat et s'impose comme un sujet de société. En France, les 12-17 ans passent en moyenne près de <strong>4 heures par jour sur Internet</strong>, dont une bonne part du temps consacré aux réseaux sociaux. De nombreux rapports scientifiques soulignent des corrélations entre usage intensif des réseaux sociaux et troubles du sommeil, anxiété ou image de soi dégradée chez les jeunes.</p><p><span style="color: rgb(0, 0, 0); font-size: 18px">« </span><span style="color: rgb(0, 0, 0)"><em>J'ai besoin de vous »</em>, sous-entendu pour régler le problème, avait lancé</span><span style="color: rgb(0, 0, 0); font-size: 18px"> Emmanuel Macron à 200 experts et acteurs de terrain lors d'un diner à l'Elysée en octobre dernier.</span></p><h2 id="10fb18" class=""><strong>Le numérique de plus en plus réglementé</strong></h2><p>Au-delà des réseaux sociaux, il faut se rendre à l'évidence : il est loin le temps où Internet apparaissait comme un espace de liberté totale, voire de non droit, en marge des grands mécanismes. Aujourd'hui, c'est la fin de la récréation. Le numérique se régule à tous les niveaux. RGPD, DSA, DMA, AI Act... En quelques années, l’Europe a mis en place ou renforcé son contrôle sur de nombreux domaines. Les États et l’UE reprennent progressivement la main sur des secteurs longtemps dominés par des entreprises globales. Ce mouvement pourra sembler légitime, à condition qu'il ne soit pas synonyme de risques pour la vie privée des citoyens.</p><p></p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/340a36c7a783ca12687f.png" alt="Interdire les réseaux sociaux aux mineurs : pourquoi est-ce si compliqué ?" /></p><p><strong>Le Parlement examine cette semaine, en "procédure accélérée", une proposition de loi visant à bloquer l'accès des réseaux sociaux aux jeunes français de moins de 15 ans. Je vous explique pourquoi c'est si difficile à mettre en oeuvre.</strong></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/d732864bba4c35429f86.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Emmanuel Macron l'a dit, dans <a target="_blank" class="link" href="https://www.bfmtv.com/politique/elysee/document-bfmtv-interdiction-des-reseaux-sociaux-aux-mineurs-emmanuel-macron-engage-la-procedure-acceleree-pour-une-loi-applicable-des-la-rentree-prochaine_AV-202601240240.html" data-type="link">une vidéo</a> publiée le 24 janvier : « <em>Le cerveau de nos enfants et de nos adolescents n’est pas à vendre.&nbsp;</em>». Le président de la République promet donc, qu'à la rentrée prochaine, les moins de 15 ans ne pourront plus accéder aux grandes plateformes de réseaux sociaux, sauf pour certaines d'entre elles à condition de disposer d'une autorisation parentale.</p><p>Mais comment vérifier l'âge des utilisateurs ?</p><h2 id="d80ce8" class=""><strong>Est-ce possible techniquement ?</strong></h2><p>Le vrai défi consiste à trouver un système à la fois fiable, respectueux de la vie privée et applicable à grande échelle.</p><p>Aujourd’hui, la majorité des plateformes se contentent d’une simple déclaration de date de naissance, largement insuffisante et très facilement contournable. Pour aller plus loin, certaines solutions reposent sur la présentation d’un document d’identité. Une méthode efficace sur le papier, mais jugée disproportionnée par les autorités européennes en raison des risques liés à la conservation de données sensibles.</p><p>C’est pourquoi les pouvoirs publics privilégient désormais le recours à un <strong>tiers de confiance</strong>. Dans ce modèle, la plateforme ne vérifie pas directement l’âge de l’utilisateur : un prestataire indépendant confirme simplement s’il remplit ou non la condition requise, sans transmettre son identité. Ce principe, déjà utilisé pour les sites pornographiques, peut être renforcé par un mécanisme dit de <strong>double anonymat</strong>, dans lequel ni la plateforme ni le vérificateur ne disposent d’une vision complète des données. Au passage, cela signifie que tous les utilisateurs sans exception devront prouver leur âge. </p><p>D’autres pistes existent, comme les <strong>contrôles parentaux</strong> intégrés aux smartphones ou aux magasins d’applications, mais ils restent partiels et facilement contournables. L’implication directe de l’État ou de l’Éducation nationale est également évoquée, sans qu’aucune solution ne fasse aujourd’hui consensus.</p><p>À moyen terme, la voie la plus crédible est celle de l’<strong>identité numérique européenne</strong>, prévue par le règlement eIDAS 2. Elle permettrait de prouver un âge minimum — « plus de 15 ans », par exemple — sans révéler d’informations personnelles. Une solution qui répond à la fois aux exigences techniques, juridiques et de protection des libertés individuelles.Sur le plan technique, des solutions existent, mais aucune n’est simple à déployer à grande échelle.</p><h2 id="48c0c" class=""><strong>Est-ce possible juridiquement ?</strong></h2><p>Techniquement faisable, juridiquement applicable ? Là réside le cœur de la difficulté.</p><p>Les grandes plateformes sociales (Meta, TikTok, X, etc.) opèrent presque toutes depuis des entités basées en Irlande ou au Luxembourg. Or, en vertu du<strong> </strong>Digital Services Act (DSA), ce sont les règles de l’Union européenne qui s’appliquent à elles, et non les législations nationales isolées des États membres.</p><p>Autrement dit, la France peut voter une loi mais <strong>elle ne peut pas l’imposer directement à ces entreprises tech sans cadre européen.</strong></p><p>La jurisprudence et la pratique récente montrent que les régulations de plateformes relèvent désormais d’une compétence européenne centralisée, notamment pour des services qui traversent les frontières. Cela explique pourquoi des lois nationales sont souvent juridiquement inopérantes sans adhésion européenne.</p><h2 id="f5568" class=""><strong>Du coup, à quoi sert cette loi ?</strong></h2><p>Si la portée juridique directe est limitée aujourd’hui, la loi a plusieurs fonctions politiques et stratégiques. Il s'agit de créer un rapport de force politique, national et européen, sur la régulation des plateformes, et d'envoyer un signal fort aux entreprises du numérique sur les attentes sociétales et les limites d’usage pour les jeunes. Enfin, la France entend ainsi préparer une base technique et politique à une future régulation européenne harmonisée, dans laquelle des mécanismes de vérification d’âge fiables pourraient être intégrés.</p><p>En gros, elle veut forcer la main à l'Europe.</p><h2 id="780a3" class=""><strong>Que peut-il se passer prochainement ?</strong></h2><p>À court terme, les changements concrets pour les jeunes Français seront limités. Une interdiction pure et simple restera difficile à appliquer immédiatement sans mécanisme de vérification d’âge reconnu et applicable à l’échelle des plateformes mondiales.</p><p>À plus long terme, une piste souvent évoquée est celle de l’<strong>identité numérique européenne (eIDAS 2)</strong>. Ce cadre en cours de déploiement doit permettre aux citoyens de prouver des attributs comme leur âge sans révéler l’ensemble de leurs données personnelles. Un tel système pourrait offrir une solution technique robuste à ce type de contrôle, <strong>valable dans toute l’UE</strong>, et rendre possible l’application de règles nationales ou européennes sur l’âge minimum d’accès.</p><h2 id="d8f878" class=""><strong>L'impact sanitaire des réseaux sociaux</strong></h2><p>En attendant, une chose est sûre, l'impact des réseaux sociaux sur la santé mentale des mineurs ne fait plus débat et s'impose comme un sujet de société. En France, les 12-17 ans passent en moyenne près de <strong>4 heures par jour sur Internet</strong>, dont une bonne part du temps consacré aux réseaux sociaux. De nombreux rapports scientifiques soulignent des corrélations entre usage intensif des réseaux sociaux et troubles du sommeil, anxiété ou image de soi dégradée chez les jeunes.</p><p><span style="color: rgb(0, 0, 0); font-size: 18px">« </span><span style="color: rgb(0, 0, 0)"><em>J'ai besoin de vous »</em>, sous-entendu pour régler le problème, avait lancé</span><span style="color: rgb(0, 0, 0); font-size: 18px"> Emmanuel Macron à 200 experts et acteurs de terrain lors d'un diner à l'Elysée en octobre dernier.</span></p><h2 id="10fb18" class=""><strong>Le numérique de plus en plus réglementé</strong></h2><p>Au-delà des réseaux sociaux, il faut se rendre à l'évidence : il est loin le temps où Internet apparaissait comme un espace de liberté totale, voire de non droit, en marge des grands mécanismes. Aujourd'hui, c'est la fin de la récréation. Le numérique se régule à tous les niveaux. RGPD, DSA, DMA, AI Act... En quelques années, l’Europe a mis en place ou renforcé son contrôle sur de nombreux domaines. Les États et l’UE reprennent progressivement la main sur des secteurs longtemps dominés par des entreprises globales. Ce mouvement pourra sembler légitime, à condition qu'il ne soit pas synonyme de risques pour la vie privée des citoyens.</p><p></p>]]></content:encoded><category>Réseaux Sociaux</category><category>Règlementation</category><category>Droit</category><category>Enfants</category></item><item><title>Quand l&apos;IA joue au docteur</title><pubDate>Wed, 14 Jan 2026 11:54:00 GMT</pubDate><link>https://mondenumerique.info/blog/quand-lia-joue-au-docteur</link><guid isPermalink="false">69678563483b93632b885acd</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/c134d1397f9eb89faf9e.png" alt="Quand l'IA joue au docteur" /></p><p><strong>Alors que l'intelligence artificielle s’impose comme un véritable assistant médical du quotidien, OpenAI et Anthropic lancent des services dédiés à la santé.</strong></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/11c07e58fcaea35d25bf.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>De plus en plus de personnes autour de moi me disent qu’elles confient leurs résultats d’analyses médicales à ChatGPT, seul moyen pour un humain n’ayant pas fait des années de médecine ou de biologie de comprendre ce que signifient ces colonnes de chiffres et de termes abscons. Beaucoup interrogent aussi, de plus en plus souvent, leur chatbot préféré au moindre bobo. </p><p>Bref : ça y est, l’IA est en train de devenir un vrai médecin de famille, notre premier contact santé. </p><h2 id="e66d48">Un vrai conseiller santé</h2><p>Ce mouvement, qui pouvait encore sembler marginal il y a quelques mois, est désormais assumé par les géants de l’IA eux-mêmes qui viennent de lancer des offres dédiées. </p><p><strong>OpenAI</strong> a dévoilé <a target="_blank" class="link" href="https://openai.com/fr-FR/index/introducing-chatgpt-health/" data-type="link">ChatGPT Santé</a>, un ensemble de fonctionnalités capables d’analyser des documents médicaux, de suivre des données personnelles dans le temps, et d’aider à la compréhension des diagnostics ou des parcours de soins; tout en ayant la possibilité d’intégrer leurs propres données médicales ou de bien-être (dossiers médicaux, données d’applications diverses).</p><p>De son côté, <strong>Anthropic</strong> emboîte le pas avec <a target="_blank" class="link" href="https://claude.com/solutions/healthcare" data-type="link">Claude for Healthcare</a>, des solutions orientées vers l’assistance clinique et l’accompagnement des patients, tout en promettant une approche “responsable” et encadrée. Déployées en version bêta aux États-Unis pour les abonnés Pro et Max, ces fonctionnalités s’inscrivent dans une logique de personnalisation, tout en revendiquant des garanties strictes en matière de confidentialité.</p><h2 id="2541e">Fidji Simo "sauvée" par ChatGPT ? </h2><p>Les bénéfices paraissent évidents : à l'heure où l'accès aux soins devient de plus en plus compliqué, c'est un moyen de trouver tout de suite un interlocuteur à même de nous informer; et aussi de nous rassurer - étonnamment, ChatGPT sait mettre les formes lorsqu'il explique une pathologie ou interprète des résultats d'analyses. </p><p>Au récent <a target="_blank" class="link" href="https://mondenumerique.info/tag/ces" data-type="link">CES de Las Vegas</a>, on m'a rapporté cette anecdote concernant Fidji Simo, la patronne des produits d'OpenAI, qui aurait évité qu’on lui administre un traitement inapproprié en interrogeant ChatGPT auquel elle a depuis longtemps confié tout son historique médical. L’outil aurait détecté une incohérence que les médecins n'avaient pas identifiée mais qu'ils ont rapidement confirmée. On est loin du gadget. On touche là à un usage vital, au sens propre.</p><h2 id="6d117" class=""><strong>Des promesses… et de sérieuses limites</strong></h2><p>Cette révolution silencieuse pose évidemment de grosses questions. La première est celle des limites techniques. Les modèles d’IA progressent vite, mais ils restent sujets aux hallucinations — ces réponses fausses, parfois très convaincantes, qui peuvent devenir dramatiques dans un contexte médical. Une erreur dans une recommandation de traitement n’a pas les mêmes conséquences qu’une faute dans un devoir scolaire ou une recherche touristique.</p><p>L'autre sujet est celui des précieuses données personnelles de santé. Doit-on tout dire de sa santé à des entreprises privées, américaines de surcroit, sans garanties réelles de respect de la confidentialité ? Dans son annonce, Anthropic précise que les données de santé partagées ne sont ni mémorisées par le modèle, ni utilisées pour l’entraînement futur, et que les autorisations peuvent être modifiées ou révoquées à tout moment. </p><h2 id="91bca">Vie privée contre vie tout court</h2><p>Ces affirmations suffisent-elles à rassurer les méfiants pathologiques ? En France, les données de santé sont considérées comme précieuses et jalousement gardées, avec force réglementations et clouds certifiés “SecNumCloud”. Mais se priver des avancées de l'IA en santé parait assurément tragique.</p><p>Comme le résumait récemment au micro de <strong>Monde Numérique</strong> <a target="_blank" class="link" href="https://www.mondenumerique.info/episodes/sante-connectee-longevite-arnaud-auger" data-type="link">Arnaud Auger, adepte du "bio-hacking"</a> (contrôle de sa santé grâce aux objets connectés et à l'IA) : <em>« entre vie privée et vie tout court, il faut choisir »</em>. C'est à cette question que nous devons répondre aujourd'hui, à la fois individuellement et collectivement.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/c134d1397f9eb89faf9e.png" alt="Quand l'IA joue au docteur" /></p><p><strong>Alors que l'intelligence artificielle s’impose comme un véritable assistant médical du quotidien, OpenAI et Anthropic lancent des services dédiés à la santé.</strong></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/11c07e58fcaea35d25bf.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>De plus en plus de personnes autour de moi me disent qu’elles confient leurs résultats d’analyses médicales à ChatGPT, seul moyen pour un humain n’ayant pas fait des années de médecine ou de biologie de comprendre ce que signifient ces colonnes de chiffres et de termes abscons. Beaucoup interrogent aussi, de plus en plus souvent, leur chatbot préféré au moindre bobo. </p><p>Bref : ça y est, l’IA est en train de devenir un vrai médecin de famille, notre premier contact santé. </p><h2 id="e66d48">Un vrai conseiller santé</h2><p>Ce mouvement, qui pouvait encore sembler marginal il y a quelques mois, est désormais assumé par les géants de l’IA eux-mêmes qui viennent de lancer des offres dédiées. </p><p><strong>OpenAI</strong> a dévoilé <a target="_blank" class="link" href="https://openai.com/fr-FR/index/introducing-chatgpt-health/" data-type="link">ChatGPT Santé</a>, un ensemble de fonctionnalités capables d’analyser des documents médicaux, de suivre des données personnelles dans le temps, et d’aider à la compréhension des diagnostics ou des parcours de soins; tout en ayant la possibilité d’intégrer leurs propres données médicales ou de bien-être (dossiers médicaux, données d’applications diverses).</p><p>De son côté, <strong>Anthropic</strong> emboîte le pas avec <a target="_blank" class="link" href="https://claude.com/solutions/healthcare" data-type="link">Claude for Healthcare</a>, des solutions orientées vers l’assistance clinique et l’accompagnement des patients, tout en promettant une approche “responsable” et encadrée. Déployées en version bêta aux États-Unis pour les abonnés Pro et Max, ces fonctionnalités s’inscrivent dans une logique de personnalisation, tout en revendiquant des garanties strictes en matière de confidentialité.</p><h2 id="2541e">Fidji Simo "sauvée" par ChatGPT ? </h2><p>Les bénéfices paraissent évidents : à l'heure où l'accès aux soins devient de plus en plus compliqué, c'est un moyen de trouver tout de suite un interlocuteur à même de nous informer; et aussi de nous rassurer - étonnamment, ChatGPT sait mettre les formes lorsqu'il explique une pathologie ou interprète des résultats d'analyses. </p><p>Au récent <a target="_blank" class="link" href="https://mondenumerique.info/tag/ces" data-type="link">CES de Las Vegas</a>, on m'a rapporté cette anecdote concernant Fidji Simo, la patronne des produits d'OpenAI, qui aurait évité qu’on lui administre un traitement inapproprié en interrogeant ChatGPT auquel elle a depuis longtemps confié tout son historique médical. L’outil aurait détecté une incohérence que les médecins n'avaient pas identifiée mais qu'ils ont rapidement confirmée. On est loin du gadget. On touche là à un usage vital, au sens propre.</p><h2 id="6d117" class=""><strong>Des promesses… et de sérieuses limites</strong></h2><p>Cette révolution silencieuse pose évidemment de grosses questions. La première est celle des limites techniques. Les modèles d’IA progressent vite, mais ils restent sujets aux hallucinations — ces réponses fausses, parfois très convaincantes, qui peuvent devenir dramatiques dans un contexte médical. Une erreur dans une recommandation de traitement n’a pas les mêmes conséquences qu’une faute dans un devoir scolaire ou une recherche touristique.</p><p>L'autre sujet est celui des précieuses données personnelles de santé. Doit-on tout dire de sa santé à des entreprises privées, américaines de surcroit, sans garanties réelles de respect de la confidentialité ? Dans son annonce, Anthropic précise que les données de santé partagées ne sont ni mémorisées par le modèle, ni utilisées pour l’entraînement futur, et que les autorisations peuvent être modifiées ou révoquées à tout moment. </p><h2 id="91bca">Vie privée contre vie tout court</h2><p>Ces affirmations suffisent-elles à rassurer les méfiants pathologiques ? En France, les données de santé sont considérées comme précieuses et jalousement gardées, avec force réglementations et clouds certifiés “SecNumCloud”. Mais se priver des avancées de l'IA en santé parait assurément tragique.</p><p>Comme le résumait récemment au micro de <strong>Monde Numérique</strong> <a target="_blank" class="link" href="https://www.mondenumerique.info/episodes/sante-connectee-longevite-arnaud-auger" data-type="link">Arnaud Auger, adepte du "bio-hacking"</a> (contrôle de sa santé grâce aux objets connectés et à l'IA) : <em>« entre vie privée et vie tout court, il faut choisir »</em>. C'est à cette question que nous devons répondre aujourd'hui, à la fois individuellement et collectivement.</p>]]></content:encoded><category>IA</category><category>Santé</category></item><item><title>CES 2026 : Sony et Honda accélèrent sur leur voiture AFEELA 1, qui arrive dès 2026, un nouveau modèle déjà prévu pour 2028</title><pubDate>Wed, 07 Jan 2026 10:33:00 GMT</pubDate><link>https://mondenumerique.info/blog/ces-2026-sony-et-honda-acclrent-sur-leur-voiture-afeela-1-arrive-ds-2026-un-nouveau-modle-dj-prvu-pour-2028</link><guid isPermalink="false">695e36ba483b93632b885706</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/79e995305c4c1d7257bb.jpg" alt="CES 2026 : Sony et Honda accélèrent sur leur voiture AFEELA 1, qui arrive dès 2026, un nouveau modèle déjà prévu pour 2028" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Annoncé il y a près de quatre ans, le projet automobile commun de Sony et Honda entre dans sa phase la plus concrète. À l’occasion du CES, leur coentreprise Sony Honda Mobility confirme l’arrivée de son premier modèle de série, AFEELA 1, et dévoile un nouveau prototype annonçant la suite de la gamme à l’horizon 2028.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/b1a785a3c8347c56bc8e.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧</strong><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong>À écouter : Toute l’actualité en direct du CES 2026</strong></a></p></blockquote><p><a target="_blank" class="link" href="https://www.shm-afeela.com/en/" data-type="link">Sony et Honda</a> avaient officialisé leur alliance en mars 2022 avec une ambition claire, celle de créer des véhicules électriques haut de gamme capables de marier le savoir-faire automobile de Honda et l’expertise technologique et logicielle de Sony.</p><p>Ce partenariat a conduit à la création de <a target="_blank" class="link" href="https://www.shm-afeela.com/en/" data-type="link">Sony Honda Mobility</a> à l’été 2022, avant une première apparition publique avec le concept de berline électrique <a target="_blank" class="link" href="https://www.shm-afeela.com/en/product/afeela1/" data-type="link">AFEELA</a>, dévoilé au CES 2023, puis sa version de production présentée l’an dernier au CES.</p><h2 id="0cf328" class=""><strong>Un nouveau prototype SUV pour un modèle attendu en 2028</strong></h2><p>Grande nouveauté du CES 2026, Sony Honda Mobility a présenté un tout nouveau prototype, baptisé <a target="_blank" class="link" href="https://www.shm-afeela.com/en/prototype/afeela_prototype_2026/" data-type="link">AFEELA 2026.</a></p><p>Il s’agit cette fois d’un SUV, plus spacieux et plus flexible dans son aménagement intérieur, pensé pour toucher un public plus large que la première berline. Le prototype conserve les lignes épurées de la gamme Afeela, avec notamment un avant équipé d’un écran lumineux distinctif.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/63396aad6bebc4528251.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Un modèle de production directement dérivé de ce prototype est déjà annoncé pour 2028, sur le marché américain dans un premier temps. Sony et Honda confirment ainsi que la gamme Afeela ne se limitera pas à un seul véhicule, mais s’inscrit dans une stratégie de long terme.</p><h2 id="94a44" class=""><strong>AFEELA 1 : le premier modèle de série arrive fin 2026</strong></h2><p>Présentée comme le premier véhicule de production de Sony Honda Mobility, <a target="_blank" class="link" href="https://www.shm-afeela.com/en/news/2026-01-07/" data-type="link">AFEELA 1</a> a été officiellement dévoilée au CES 2025. Le calendrier se précise, cette berline électrique premium sera livrée fin 2026 aux États-Unis, en Californie dans un premier temps, avant une extension à l’Arizona puis au Japon à partir de 2027.</p><p>Lors de sa conférence, Sony Honda Mobility a indiqué avoir accueilli plus de 100 000 visiteurs dans ses espaces AFEELA Studio, avec 24 000 démonstrations embarquées, preuve de l’intérêt suscité par le projet.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/aafc6d2a746164650fae.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>La production est assurée par Honda dans son usine d’East Liberty, dans l’Ohio, état des États-Unis.</p><h2 id="dec5c8" class=""><strong>Une voiture pensée comme un partenaire intelligent</strong></h2><p>Le véhicule repose sur une plateforme électrique dédiée et embarque un large éventail de capteurs : caméras, radars et lidars répartis tout autour du véhicule, soit jusqu’à 45 capteurs dédiés à la conduite assistée, à la sécurité et à la perception de l’environnement.</p><p>L’autonomie est estimée à environ 483 km, grâce à une batterie de 91 kWh. Le prix de départ annoncé avoisine 85 000 euros hors taxes.</p><p>À l’intérieur, l’habitacle se distingue par un écran panoramique s’étendant sur toute la largeur de la planche de bord. L’interface est centrée sur les services connectés, le divertissement et l’intelligence artificielle. Sony y intègre ses contenus audiovisuels, avec notamment <a target="_blank" class="link" href="https://remoteplay.dl.playstation.net/remoteplay/lang/fr/index.html" data-type="link">PS Remote Play</a>, permettant de diffuser des jeux PS4 et PS5 sur les écrans embarqués.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/1e30f8df8c0626cf881a.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Un agent personnel AFEELA, basé sur les technologies Microsoft Azure OpenAI, permet une interaction vocale naturelle avec le véhicule. La puissance de calcul repose sur des plateformes <a target="_blank" class="link" href="https://mondenumerique.info/blog/ces-2026-qualcomm-gant-des-puces-lectroniques-acclre-sur-la-voiture-intelligente-avec-leapmotor-google-et-zf" data-type="link">Snapdragon de Qualcomm</a>.</p><p>AFEELA 1 inaugure également le système AFEELA Intelligent Drive, avec une conduite assistée de niveau 2+ dès le lancement, capable de gérer automatiquement certaines situations sur autoroute, tout en laissant le conducteur responsable.</p><h2 id="580ca8" class=""><strong>Vers une nouvelle définition de la voiture</strong></h2><p>Dès le départ, le projet Afeela ne se limite pas à une voiture électrique classique. <a target="_blank" class="link" href="https://www.shm-afeela.com/en/" data-type="link">Sony Honda Mobility</a> défend une vision de la « <em>mobilité comme espace de divertissement créatif</em> », où l’habitacle devient un lieu connecté et personnalisé, à la croisée du jeu vidéo, du cinéma et des services numériques de Sony.</p><p>Avec AFEELA 1 et ce nouveau prototype SUV, Sony et Honda cherchent à redéfinir le rôle de la voiture dans la vie quotidienne.</p><p>Les partenariats entre entreprises technologiques et constructeurs automobiles se multiplient. Google avec Android Automotive, Apple avec CarPlay, ou encore les collaborations Tesla-Toyota, BMW-Intel-Mobileye, Volkswagen-Ford. Afeela s’inscrit pleinement dans cette nouvelle génération de véhicules définis par le logiciel.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/79e995305c4c1d7257bb.jpg" alt="CES 2026 : Sony et Honda accélèrent sur leur voiture AFEELA 1, qui arrive dès 2026, un nouveau modèle déjà prévu pour 2028" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Annoncé il y a près de quatre ans, le projet automobile commun de Sony et Honda entre dans sa phase la plus concrète. À l’occasion du CES, leur coentreprise Sony Honda Mobility confirme l’arrivée de son premier modèle de série, AFEELA 1, et dévoile un nouveau prototype annonçant la suite de la gamme à l’horizon 2028.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/b1a785a3c8347c56bc8e.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧</strong><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong>À écouter : Toute l’actualité en direct du CES 2026</strong></a></p></blockquote><p><a target="_blank" class="link" href="https://www.shm-afeela.com/en/" data-type="link">Sony et Honda</a> avaient officialisé leur alliance en mars 2022 avec une ambition claire, celle de créer des véhicules électriques haut de gamme capables de marier le savoir-faire automobile de Honda et l’expertise technologique et logicielle de Sony.</p><p>Ce partenariat a conduit à la création de <a target="_blank" class="link" href="https://www.shm-afeela.com/en/" data-type="link">Sony Honda Mobility</a> à l’été 2022, avant une première apparition publique avec le concept de berline électrique <a target="_blank" class="link" href="https://www.shm-afeela.com/en/product/afeela1/" data-type="link">AFEELA</a>, dévoilé au CES 2023, puis sa version de production présentée l’an dernier au CES.</p><h2 id="0cf328" class=""><strong>Un nouveau prototype SUV pour un modèle attendu en 2028</strong></h2><p>Grande nouveauté du CES 2026, Sony Honda Mobility a présenté un tout nouveau prototype, baptisé <a target="_blank" class="link" href="https://www.shm-afeela.com/en/prototype/afeela_prototype_2026/" data-type="link">AFEELA 2026.</a></p><p>Il s’agit cette fois d’un SUV, plus spacieux et plus flexible dans son aménagement intérieur, pensé pour toucher un public plus large que la première berline. Le prototype conserve les lignes épurées de la gamme Afeela, avec notamment un avant équipé d’un écran lumineux distinctif.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/63396aad6bebc4528251.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Un modèle de production directement dérivé de ce prototype est déjà annoncé pour 2028, sur le marché américain dans un premier temps. Sony et Honda confirment ainsi que la gamme Afeela ne se limitera pas à un seul véhicule, mais s’inscrit dans une stratégie de long terme.</p><h2 id="94a44" class=""><strong>AFEELA 1 : le premier modèle de série arrive fin 2026</strong></h2><p>Présentée comme le premier véhicule de production de Sony Honda Mobility, <a target="_blank" class="link" href="https://www.shm-afeela.com/en/news/2026-01-07/" data-type="link">AFEELA 1</a> a été officiellement dévoilée au CES 2025. Le calendrier se précise, cette berline électrique premium sera livrée fin 2026 aux États-Unis, en Californie dans un premier temps, avant une extension à l’Arizona puis au Japon à partir de 2027.</p><p>Lors de sa conférence, Sony Honda Mobility a indiqué avoir accueilli plus de 100 000 visiteurs dans ses espaces AFEELA Studio, avec 24 000 démonstrations embarquées, preuve de l’intérêt suscité par le projet.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/aafc6d2a746164650fae.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>La production est assurée par Honda dans son usine d’East Liberty, dans l’Ohio, état des États-Unis.</p><h2 id="dec5c8" class=""><strong>Une voiture pensée comme un partenaire intelligent</strong></h2><p>Le véhicule repose sur une plateforme électrique dédiée et embarque un large éventail de capteurs : caméras, radars et lidars répartis tout autour du véhicule, soit jusqu’à 45 capteurs dédiés à la conduite assistée, à la sécurité et à la perception de l’environnement.</p><p>L’autonomie est estimée à environ 483 km, grâce à une batterie de 91 kWh. Le prix de départ annoncé avoisine 85 000 euros hors taxes.</p><p>À l’intérieur, l’habitacle se distingue par un écran panoramique s’étendant sur toute la largeur de la planche de bord. L’interface est centrée sur les services connectés, le divertissement et l’intelligence artificielle. Sony y intègre ses contenus audiovisuels, avec notamment <a target="_blank" class="link" href="https://remoteplay.dl.playstation.net/remoteplay/lang/fr/index.html" data-type="link">PS Remote Play</a>, permettant de diffuser des jeux PS4 et PS5 sur les écrans embarqués.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/1e30f8df8c0626cf881a.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Un agent personnel AFEELA, basé sur les technologies Microsoft Azure OpenAI, permet une interaction vocale naturelle avec le véhicule. La puissance de calcul repose sur des plateformes <a target="_blank" class="link" href="https://mondenumerique.info/blog/ces-2026-qualcomm-gant-des-puces-lectroniques-acclre-sur-la-voiture-intelligente-avec-leapmotor-google-et-zf" data-type="link">Snapdragon de Qualcomm</a>.</p><p>AFEELA 1 inaugure également le système AFEELA Intelligent Drive, avec une conduite assistée de niveau 2+ dès le lancement, capable de gérer automatiquement certaines situations sur autoroute, tout en laissant le conducteur responsable.</p><h2 id="580ca8" class=""><strong>Vers une nouvelle définition de la voiture</strong></h2><p>Dès le départ, le projet Afeela ne se limite pas à une voiture électrique classique. <a target="_blank" class="link" href="https://www.shm-afeela.com/en/" data-type="link">Sony Honda Mobility</a> défend une vision de la « <em>mobilité comme espace de divertissement créatif</em> », où l’habitacle devient un lieu connecté et personnalisé, à la croisée du jeu vidéo, du cinéma et des services numériques de Sony.</p><p>Avec AFEELA 1 et ce nouveau prototype SUV, Sony et Honda cherchent à redéfinir le rôle de la voiture dans la vie quotidienne.</p><p>Les partenariats entre entreprises technologiques et constructeurs automobiles se multiplient. Google avec Android Automotive, Apple avec CarPlay, ou encore les collaborations Tesla-Toyota, BMW-Intel-Mobileye, Volkswagen-Ford. Afeela s’inscrit pleinement dans cette nouvelle génération de véhicules définis par le logiciel.</p>]]></content:encoded><category>IA</category><category>Technologies</category></item><item><title>CES 2026 : NVIDIA Rubin, la nouvelle architecture qui propulse l’IA mondiale</title><pubDate>Tue, 06 Jan 2026 11:38:00 GMT</pubDate><link>https://mondenumerique.info/blog/ces-2026-nvidia-rubin-la-nouvelle-architecture-qui-propulse-lia-mondiale</link><guid isPermalink="false">695cfbe9e2eb07b506873478</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/df0f1ef120c246b790f5.jpg" alt="CES 2026 : NVIDIA Rubin, la nouvelle architecture qui propulse l’IA mondiale" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Avec Rubin, NVIDIA dévoile une architecture IA de nouvelle génération, capable d’entraîner et d’exécuter les modèles les plus avancés. Du cloud à votre bureau, de la robotique à la conduite autonome, l’entreprise affirme sa position de moteur central de l’intelligence artificielle moderne.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/ffdbd9cfddd53d95d01e.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧</strong><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong>À écouter : Toute l’actualité en direct du CES 2026</strong></a></p></blockquote><p>Sur scène à Las Vegas, son fondateur <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/about-nvidia/board-of-directors/jensen-huang/" data-type="link">Jensen Huang</a> a donné le ton : « <em>L’informatique a été fondamentalement remodelée par l’IA et l’informatique accélérée</em>. » Un message clair pour NVIDIA, qui veut être l’infrastructure centrale de l’ère de l’intelligence artificielle. L’entreprise est aujourd’hui le fournisseur dominant des puces graphiques (GPU) utilisées dans les data centers dédiés à l’entraînement et à l’inférence des grands modèles d’intelligence artificielle (LLM, modèles multimodaux).</p><h2 id="f2539" class=""><strong>Le nouveau moteur de l’IA mondiale avec Rubin</strong></h2><p>Annonce centrale de sa conférence, la nouvelle architecture de calcul dédiée à l’IA, baptisée <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/data-center/technologies/rubin/" data-type="link">NVIDIA Rubin</a>, qui succède à <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/data-center/technologies/blackwell-architecture/" data-type="link">Blackwell.</a></p><p>Rubin n’est pas une simple puce, mais une architecture complète, conçue pour entraîner et exécuter les modèles d’IA les plus avancés au monde. « <em>Rubin vise à pousser l’IA vers la frontière suivante, tout en divisant par dix le coût de génération des tokens</em> (unité de texte qu’un modèle d’IA traite à la fois) » explique Jensen Huang. Une promesse clé pour rendre l’IA massive plus accessible économiquement, tout en accélérant son déploiement industriel.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet" data-media-max-width="560"><p lang="en" dir="ltr">Vera Rubin is in full production.<br><br>We just kicked off the next generation of AI infrastructure with the NVIDIA Rubin platform, bringing together six new chips to deliver one AI supercomputer built for AI at scale.<br><br>Here are the top 5 things to know 🧵 <a href="https://t.co/TiQKUK4eY3">pic.twitter.com/TiQKUK4eY3</a></p>— NVIDIA (@nvidia) <a href="https://twitter.com/nvidia/status/2008357978148130866?ref_src=twsrc%5Etfw">January 6, 2026</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><p>Rubin combine plusieurs composants :</p><ul class="tight" data-tight="true"><li><p>Cœurs graphiques (GPU Rubin) optimisés pour l’IA et le calcul parallèle.</p></li><li><p>Processeur <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/data-center/vera-cpu/?ncid=no-ncid" data-type="link">Vera</a> pour les tâches de calcul spécialisé et d’inférence.</p></li><li><p>Interconnexion NVLink nouvelle génération, assurant un transfert ultra-rapide de données entre composants.</p></li><li><p>DPU (Data Processing Unit), l’unité de traitement de données pour gérer les entrées/sorties et la communication entre serveurs IA.</p></li></ul><p>Rubin est conçu pour les grands modèles de langage et multimodaux, la robotique, la conduite autonome et la génération locale d’images, vidéos et textes. NVIDIA promet de réduire par dix le coût de génération des tokens, rendant l’IA accessible à grande échelle et renforçant sa position sur le marché industriel de l’intelligence artificielle.</p><h2 id="554148" class=""><strong>Robotique, conduite autonome et IA “physique”</strong></h2><p>Grâce à Rubin, NVIDIA peut désormais déployer l’IA dans le monde réel. Sa plateforme <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/ai/cosmos/" data-type="link">Cosmos</a> développe des modèles capables de raisonnement physique, de simulation et de prédiction de trajectoires, entraînés dans des mondes virtuels avant d’être déployés sur des robots ou des véhicules.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/2eaccde3fe67ed66d659.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Dans l’automobile, NVIDIA a présenté <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/solutions/autonomous-vehicles/alpamayo/" data-type="link">Alpamayo</a>, un ensemble de modèles ouverts pour la conduite autonome de niveau 4, capables non seulement de piloter un véhicule, mais aussi de raisonner sur leurs propres actions. Jensen Huang explique : « <em>Il ne se contente pas d’actionner le volant ou les freins, il raisonne sur ce qu’il est sur le point de faire.</em> »</p><p>NVIDIA emploie le terme “IA physique” pour désigner une intelligence artificielle capable de percevoir, raisonner et agir dans le monde physique, au‑delà de l’analyse de texte ou d’images classiques.</p><h2 id="a5f2e" class=""><strong>L’IA sur chaque bureau avec PC RTX AI</strong></h2><p>Dernier axe stratégique, démocratiser l’IA hors des data centers avec les <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/ai-on-rtx/" data-type="link">PC RTX AI</a>, de véritables ordinateurs équipés d’une carte graphique <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/geforce/rtx/" data-type="link">NVIDIA GeForce RTX</a>.</p><p>Ce n’est pas un produit isolé comme une console ou un serveur, mais une catégorie de PC desktop ou portable qui utilise les GPU RTX. L’expression <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/ai-on-rtx/" data-type="link">PC RTX AI</a> est utilisée par NVIDIA pour montrer que ces machines ne servent plus seulement au jeu mais deviennent aussi des plateformes d’IA locales. Vous verrez la mention apparaître dans les spécifications techniques des ordinateurs sur le marché.</p><p>Enfin mention pour <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/products/workstations/dgx-spark/" data-type="link">DGX Spark</a>, une plateforme matérielle et logicielle pour l’IA professionnelle. C’est une machine serveur ou station de travail avancée, souvent utilisée dans les entreprises, laboratoires ou par les développeurs IA. Elle repose sur des GPU NVIDIA haute performance (séries RTX, A100, Blackwell ou Rubin selon les générations) et permet d’entraîner et d’exécuter des modèles complexes à grande échelle.</p><p>Du jeu vidéo à la robotique, des PC personnels aux centres de données, NVIDIA déploie une stratégie claire pour devenir l’ossature matérielle et logicielle de l’IA moderne.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/df0f1ef120c246b790f5.jpg" alt="CES 2026 : NVIDIA Rubin, la nouvelle architecture qui propulse l’IA mondiale" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Avec Rubin, NVIDIA dévoile une architecture IA de nouvelle génération, capable d’entraîner et d’exécuter les modèles les plus avancés. Du cloud à votre bureau, de la robotique à la conduite autonome, l’entreprise affirme sa position de moteur central de l’intelligence artificielle moderne.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/ffdbd9cfddd53d95d01e.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧</strong><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong>À écouter : Toute l’actualité en direct du CES 2026</strong></a></p></blockquote><p>Sur scène à Las Vegas, son fondateur <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/about-nvidia/board-of-directors/jensen-huang/" data-type="link">Jensen Huang</a> a donné le ton : « <em>L’informatique a été fondamentalement remodelée par l’IA et l’informatique accélérée</em>. » Un message clair pour NVIDIA, qui veut être l’infrastructure centrale de l’ère de l’intelligence artificielle. L’entreprise est aujourd’hui le fournisseur dominant des puces graphiques (GPU) utilisées dans les data centers dédiés à l’entraînement et à l’inférence des grands modèles d’intelligence artificielle (LLM, modèles multimodaux).</p><h2 id="f2539" class=""><strong>Le nouveau moteur de l’IA mondiale avec Rubin</strong></h2><p>Annonce centrale de sa conférence, la nouvelle architecture de calcul dédiée à l’IA, baptisée <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/data-center/technologies/rubin/" data-type="link">NVIDIA Rubin</a>, qui succède à <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/data-center/technologies/blackwell-architecture/" data-type="link">Blackwell.</a></p><p>Rubin n’est pas une simple puce, mais une architecture complète, conçue pour entraîner et exécuter les modèles d’IA les plus avancés au monde. « <em>Rubin vise à pousser l’IA vers la frontière suivante, tout en divisant par dix le coût de génération des tokens</em> (unité de texte qu’un modèle d’IA traite à la fois) » explique Jensen Huang. Une promesse clé pour rendre l’IA massive plus accessible économiquement, tout en accélérant son déploiement industriel.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet" data-media-max-width="560"><p lang="en" dir="ltr">Vera Rubin is in full production.<br><br>We just kicked off the next generation of AI infrastructure with the NVIDIA Rubin platform, bringing together six new chips to deliver one AI supercomputer built for AI at scale.<br><br>Here are the top 5 things to know 🧵 <a href="https://t.co/TiQKUK4eY3">pic.twitter.com/TiQKUK4eY3</a></p>— NVIDIA (@nvidia) <a href="https://twitter.com/nvidia/status/2008357978148130866?ref_src=twsrc%5Etfw">January 6, 2026</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><p>Rubin combine plusieurs composants :</p><ul class="tight" data-tight="true"><li><p>Cœurs graphiques (GPU Rubin) optimisés pour l’IA et le calcul parallèle.</p></li><li><p>Processeur <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/data-center/vera-cpu/?ncid=no-ncid" data-type="link">Vera</a> pour les tâches de calcul spécialisé et d’inférence.</p></li><li><p>Interconnexion NVLink nouvelle génération, assurant un transfert ultra-rapide de données entre composants.</p></li><li><p>DPU (Data Processing Unit), l’unité de traitement de données pour gérer les entrées/sorties et la communication entre serveurs IA.</p></li></ul><p>Rubin est conçu pour les grands modèles de langage et multimodaux, la robotique, la conduite autonome et la génération locale d’images, vidéos et textes. NVIDIA promet de réduire par dix le coût de génération des tokens, rendant l’IA accessible à grande échelle et renforçant sa position sur le marché industriel de l’intelligence artificielle.</p><h2 id="554148" class=""><strong>Robotique, conduite autonome et IA “physique”</strong></h2><p>Grâce à Rubin, NVIDIA peut désormais déployer l’IA dans le monde réel. Sa plateforme <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/ai/cosmos/" data-type="link">Cosmos</a> développe des modèles capables de raisonnement physique, de simulation et de prédiction de trajectoires, entraînés dans des mondes virtuels avant d’être déployés sur des robots ou des véhicules.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/2eaccde3fe67ed66d659.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Dans l’automobile, NVIDIA a présenté <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/solutions/autonomous-vehicles/alpamayo/" data-type="link">Alpamayo</a>, un ensemble de modèles ouverts pour la conduite autonome de niveau 4, capables non seulement de piloter un véhicule, mais aussi de raisonner sur leurs propres actions. Jensen Huang explique : « <em>Il ne se contente pas d’actionner le volant ou les freins, il raisonne sur ce qu’il est sur le point de faire.</em> »</p><p>NVIDIA emploie le terme “IA physique” pour désigner une intelligence artificielle capable de percevoir, raisonner et agir dans le monde physique, au‑delà de l’analyse de texte ou d’images classiques.</p><h2 id="a5f2e" class=""><strong>L’IA sur chaque bureau avec PC RTX AI</strong></h2><p>Dernier axe stratégique, démocratiser l’IA hors des data centers avec les <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/ai-on-rtx/" data-type="link">PC RTX AI</a>, de véritables ordinateurs équipés d’une carte graphique <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/geforce/rtx/" data-type="link">NVIDIA GeForce RTX</a>.</p><p>Ce n’est pas un produit isolé comme une console ou un serveur, mais une catégorie de PC desktop ou portable qui utilise les GPU RTX. L’expression <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/ai-on-rtx/" data-type="link">PC RTX AI</a> est utilisée par NVIDIA pour montrer que ces machines ne servent plus seulement au jeu mais deviennent aussi des plateformes d’IA locales. Vous verrez la mention apparaître dans les spécifications techniques des ordinateurs sur le marché.</p><p>Enfin mention pour <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/products/workstations/dgx-spark/" data-type="link">DGX Spark</a>, une plateforme matérielle et logicielle pour l’IA professionnelle. C’est une machine serveur ou station de travail avancée, souvent utilisée dans les entreprises, laboratoires ou par les développeurs IA. Elle repose sur des GPU NVIDIA haute performance (séries RTX, A100, Blackwell ou Rubin selon les générations) et permet d’entraîner et d’exécuter des modèles complexes à grande échelle.</p><p>Du jeu vidéo à la robotique, des PC personnels aux centres de données, NVIDIA déploie une stratégie claire pour devenir l’ossature matérielle et logicielle de l’IA moderne.</p>]]></content:encoded><category>IA</category><category>Technologies</category></item><item><title>CES 2026 : NVIDIA muscle le jeu vidéo avec l’IA, du DLSS 4.5 à l’upscaling des anciens jeux vidéo</title><pubDate>Tue, 06 Jan 2026 10:23:00 GMT</pubDate><link>https://mondenumerique.info/blog/ces-2026-nvidia-muscle-le-jeu-vido-avec-lia-du-dlss-45-lupscal-dancien-jeu-vido</link><guid isPermalink="false">695ce418483b93632b88569a</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/9c40856d590944e4bb73.jpg" alt="CES 2026 : NVIDIA muscle le jeu vidéo avec l’IA, du DLSS 4.5 à l’upscaling des anciens jeux vidéo" /></p><p><span style="font-size: 18px"><strong>NVIDIA confirme que le jeu vidéo reste l’un de ses terrains d’innovation majeurs. Le constructeur mise sur l’intelligence artificielle pour repousser les limites de la fluidité et du réalisme. Avec le DLSS 4.5, RTX Remix Logic et NVIDIA ACE, NVIDIA dessine le futur du jeu vidéo.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/6d9e3150be804ff20aeb.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧</strong><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong>À écouter : Toute l’actualité en direct du CES 2026</strong></a></p></blockquote><h2 id="ecfe5" class="">Toujours plus de fluidité, toujours plus de réalisme avec DLSS 4.5</h2><p>Bien connu dans le grand public pour ses puces graphiques RTX, NVIDIA n’a sans surprise, pas dévoilé de nouveauté côté matériel cette année depuis le <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link">CES 2026 </a>à Las Vegas. En revanche l’entreprise a levé le voile sur <a target="_blank" class="link" href="https://blogs.nvidia.com/blog/dlss-path-tracing-g-sync-pulsar-ces-2026/" data-type="link">DLSS 4.5</a>, nouvelle évolution de sa technologie qui utilise l’intelligence artificielle pour améliorer les performances et la qualité d’image dans les jeux vidéo.</p><div data-type="htmlSnippet"><div class="codeContainer"><iframe width="560" height="315" src="https://www.youtube.com/embed/u4cfzFd9HzU?si=wQADevOLKPa_wkBH" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen=""></iframe></div></div><p>Concrètement, cette amélioration du<a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/geforce/rtx/" data-type="link"> DLSS</a> (Deep Learning Super Sampling) permet aux cartes graphiques GeForce RTX de générer jusqu’à cinq images supplémentaires pour chaque image calculée. Résultat pour les joueurs : des jeux en 4K à plus de 240 images par seconde, même avec des effets graphiques lourds comme le <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/geforce/rtx/" data-type="link">Ray Tracing</a> (éclairage réaliste amélioré) ou le <a target="_blank" class="link" href="https://blogs.nvidia.com/blog/dlss-path-tracing-g-sync-pulsar-ces-2026/" data-type="link">Path Tracing</a> (éclairage ultra-réaliste, proche d’un film d’animation), à condition d’être équipé des nouvelles GeForce <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/geforce/graphics-cards/50-series/" data-type="link">RTX série 50.</a></p><p>Autre amélioration majeure : un modèle de transformateur de deuxième génération pour le <a target="_blank" class="link" href="https://www.nvidia.com/en-us/geforce/news/dlss-4-5-geforce-game-ready-driver/" data-type="link">DLSS Super Resolution,</a> une version supérieure du DLSS, qui améliore encore la finesse de l’image sur plus de 400 jeux et applications, y compris sur les anciennes cartes RTX.</p><h2 id="1260b8" class=""><strong>Redonner vie aux jeux cultes avec RTX Remix Logic</strong></h2><p>Si vous êtes nostalgique de vos anciens jeux PC, vous allez peut-être pouvoir y rejouer avec des graphismes modernisés et une fluidité améliorée. NVIDIA continue d’explorer l’IA dans le jeu vidéo avec <a target="_blank" class="link" href="https://www.nvidia.com/en-us/geforce/news/rtx-remix-logic-new-game-mods-new-plugins/" data-type="link">RTX Remix Logic</a>, une technologie qui permet de moderniser graphiquement des jeux PC anciens et de rendre leurs graphismes réactifs en temps réel, sans toucher au code original du jeu. Une avancée majeure pour moderniser plus de 165 jeux PC classiques.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/15dbfe5690ae170958ac.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Elle est accompagnée de <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/use-cases/digital-humans/" data-type="link">NVIDIA ACE</a>, qui transforme les personnages non joueurs en véritables entités intelligentes grâce à l’intelligence artificielle, pour rendre les personnages de jeux vidéo plus crédibles, interactifs et réalistes.</p><p>Exemple : dans <em>Total War: PHARAOH</em>, un conseiller IA dynamique guide le joueur en temps réel, ou dans le battle royale <em>PUBG: Battlegrounds</em>, un coéquipier IA doté d’une mémoire à long terme apprend des parties précédentes et adapte son comportement.</p><h2 id="c7e24" class=""><strong>Une nouvelle référence des écrans gaming avec le G-SYNC Pulsar</strong></h2><p>NVIDIA a également officialisé la disponibilité des premiers moniteurs <a target="_blank" class="link" href="https://www.nvidia.com/en-us/geforce/news/g-sync-pulsar-gaming-monitors-available-january-7-2026/" data-type="link">G-SYNC Pulsar</a>, une nouvelle technologie d’écran conçue pour rendre les jeux plus fluides et plus nets en mouvement, même à très haute vitesse. Ces écrans atteignent une clarté de mouvement perçue supérieure à 1 000 Hz (taux de rafraichissement de 1000 fois par seconde), réduisant drastiquement le flou en mouvement.</p><p>Ils intègrent aussi une adaptation automatique à la lumière ambiante, ajustant luminosité et température des couleurs selon l’environnement. Une technologie pensée autant pour les joueurs compétitifs que pour un usage prolongé.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/9c40856d590944e4bb73.jpg" alt="CES 2026 : NVIDIA muscle le jeu vidéo avec l’IA, du DLSS 4.5 à l’upscaling des anciens jeux vidéo" /></p><p><span style="font-size: 18px"><strong>NVIDIA confirme que le jeu vidéo reste l’un de ses terrains d’innovation majeurs. Le constructeur mise sur l’intelligence artificielle pour repousser les limites de la fluidité et du réalisme. Avec le DLSS 4.5, RTX Remix Logic et NVIDIA ACE, NVIDIA dessine le futur du jeu vidéo.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/6d9e3150be804ff20aeb.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧</strong><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong>À écouter : Toute l’actualité en direct du CES 2026</strong></a></p></blockquote><h2 id="ecfe5" class="">Toujours plus de fluidité, toujours plus de réalisme avec DLSS 4.5</h2><p>Bien connu dans le grand public pour ses puces graphiques RTX, NVIDIA n’a sans surprise, pas dévoilé de nouveauté côté matériel cette année depuis le <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link">CES 2026 </a>à Las Vegas. En revanche l’entreprise a levé le voile sur <a target="_blank" class="link" href="https://blogs.nvidia.com/blog/dlss-path-tracing-g-sync-pulsar-ces-2026/" data-type="link">DLSS 4.5</a>, nouvelle évolution de sa technologie qui utilise l’intelligence artificielle pour améliorer les performances et la qualité d’image dans les jeux vidéo.</p><div data-type="htmlSnippet"><div class="codeContainer"><iframe width="560" height="315" src="https://www.youtube.com/embed/u4cfzFd9HzU?si=wQADevOLKPa_wkBH" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen=""></iframe></div></div><p>Concrètement, cette amélioration du<a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/geforce/rtx/" data-type="link"> DLSS</a> (Deep Learning Super Sampling) permet aux cartes graphiques GeForce RTX de générer jusqu’à cinq images supplémentaires pour chaque image calculée. Résultat pour les joueurs : des jeux en 4K à plus de 240 images par seconde, même avec des effets graphiques lourds comme le <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/geforce/rtx/" data-type="link">Ray Tracing</a> (éclairage réaliste amélioré) ou le <a target="_blank" class="link" href="https://blogs.nvidia.com/blog/dlss-path-tracing-g-sync-pulsar-ces-2026/" data-type="link">Path Tracing</a> (éclairage ultra-réaliste, proche d’un film d’animation), à condition d’être équipé des nouvelles GeForce <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/geforce/graphics-cards/50-series/" data-type="link">RTX série 50.</a></p><p>Autre amélioration majeure : un modèle de transformateur de deuxième génération pour le <a target="_blank" class="link" href="https://www.nvidia.com/en-us/geforce/news/dlss-4-5-geforce-game-ready-driver/" data-type="link">DLSS Super Resolution,</a> une version supérieure du DLSS, qui améliore encore la finesse de l’image sur plus de 400 jeux et applications, y compris sur les anciennes cartes RTX.</p><h2 id="1260b8" class=""><strong>Redonner vie aux jeux cultes avec RTX Remix Logic</strong></h2><p>Si vous êtes nostalgique de vos anciens jeux PC, vous allez peut-être pouvoir y rejouer avec des graphismes modernisés et une fluidité améliorée. NVIDIA continue d’explorer l’IA dans le jeu vidéo avec <a target="_blank" class="link" href="https://www.nvidia.com/en-us/geforce/news/rtx-remix-logic-new-game-mods-new-plugins/" data-type="link">RTX Remix Logic</a>, une technologie qui permet de moderniser graphiquement des jeux PC anciens et de rendre leurs graphismes réactifs en temps réel, sans toucher au code original du jeu. Une avancée majeure pour moderniser plus de 165 jeux PC classiques.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/15dbfe5690ae170958ac.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Elle est accompagnée de <a target="_blank" class="link" href="https://www.nvidia.com/fr-fr/use-cases/digital-humans/" data-type="link">NVIDIA ACE</a>, qui transforme les personnages non joueurs en véritables entités intelligentes grâce à l’intelligence artificielle, pour rendre les personnages de jeux vidéo plus crédibles, interactifs et réalistes.</p><p>Exemple : dans <em>Total War: PHARAOH</em>, un conseiller IA dynamique guide le joueur en temps réel, ou dans le battle royale <em>PUBG: Battlegrounds</em>, un coéquipier IA doté d’une mémoire à long terme apprend des parties précédentes et adapte son comportement.</p><h2 id="c7e24" class=""><strong>Une nouvelle référence des écrans gaming avec le G-SYNC Pulsar</strong></h2><p>NVIDIA a également officialisé la disponibilité des premiers moniteurs <a target="_blank" class="link" href="https://www.nvidia.com/en-us/geforce/news/g-sync-pulsar-gaming-monitors-available-january-7-2026/" data-type="link">G-SYNC Pulsar</a>, une nouvelle technologie d’écran conçue pour rendre les jeux plus fluides et plus nets en mouvement, même à très haute vitesse. Ces écrans atteignent une clarté de mouvement perçue supérieure à 1 000 Hz (taux de rafraichissement de 1000 fois par seconde), réduisant drastiquement le flou en mouvement.</p><p>Ils intègrent aussi une adaptation automatique à la lumière ambiante, ajustant luminosité et température des couleurs selon l’environnement. Une technologie pensée autant pour les joueurs compétitifs que pour un usage prolongé.</p>]]></content:encoded><category>IA</category><category>Technologies</category></item><item><title>CES 2026 : Qualcomm, géant des puces électroniques, accélère sur la voiture intelligente avec Leapmotor, Google et ZF</title><pubDate>Tue, 06 Jan 2026 06:00:00 GMT</pubDate><link>https://mondenumerique.info/blog/ces-2026-qualcomm-gant-des-puces-lectroniques-acclre-sur-la-voiture-intelligente-avec-leapmotor-google-et-zf</link><guid isPermalink="false">695c36ec483b93632b885672</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/c33d18092443d2e59570.jpg" alt="CES 2026 : Qualcomm, géant des puces électroniques, accélère sur la voiture intelligente avec Leapmotor, Google et ZF" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Le géant américain Qualcomm se positionne au cœur de la voiture de demain en annonçant trois partenariats stratégiques majeurs à l’occasion du CES 2026. Avec le constructeur chinois Leapmotor, avec Google pour l’IA embarquée et le cloud, et avec l’équipementier ZF pour l’assistance avancée à la conduite.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/2dac88563f1374792911.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p><strong>🎧</strong><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong>À écouter :</strong></a><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong> Toute l’actualité en direct du CES 2026</strong></a></p><blockquote><p>Derrière une grande partie des objets technologiques du quotidien se cache le nom Qualcomm. Spécialiste mondial des puces électroniques et des plates-formes de calcul, le groupe américain conçoit les composants qui font fonctionner smartphones, montres connectées, écouteurs sans fil, PC, objets connectés et aussi les voitures.</p><p>Si son logo est rarement visible pour le grand public, ses technologies sont omniprésentes, au cœur des appareils que nous utilisons chaque jour. Avec ses puces Snapdragon, Qualcomm s’est imposé comme un acteur clé de l’écosystème numérique, capable de combiner puissance de calcul, connectivité, intelligence artificielle et efficacité énergétique à très grande échelle.</p></blockquote><h2 id="519398" class=""><strong>Leapmotor et Qualcomm : un cerveau central pour la voiture de demain</strong></h2><p>Qui a dit que les Américains et les Chinois ne pouvaient pas collaborer dans le domaine des technologies automobiles ? Première mondiale pour le constructeur chinois Leapmotor, son futur modèle phare, le D19, sera le premier véhicule de série à embarquer deux plates-formes Snapdragon Automotive Elite. Une architecture inédite qui marque un tournant dans la conception électronique des voitures.</p><p>Concrètement, <a target="_blank" class="link" href="https://www.qualcomm.com/news/releases/2026/01/leapmotor-and-qualcomm-debuts-world-s-first-automotive-central-c" data-type="link">Qualcomm</a> et Leapmotor ont développé un contrôleur central capable de regrouper dans un seul système des fonctions jusqu’ici séparées : le cockpit numérique (écrans, multimédia, interfaces), les aides à la conduite des véhicules (<a target="_blank" class="link" href="https://www.securite-routiere.gouv.fr/chacun-son-mode-de-deplacement/dangers-de-la-route-en-voiture/equipement-de-la-voiture/adas" data-type="link">ADAS</a>) très gourmande en puissance de calcul, les commandes de carrosserie (climatisation, éclairage, portes) et la connectivité du véhicule.</p><p>Cette approche permet de réduire fortement la complexité électronique, le nombre de calculateurs embarqués et les coûts de développement, tout en améliorant les performances globales.</p><p>Le système peut faire fonctionner simultanément plusieurs modèles d’IA avancés. Un grand modèle multimodal pour le cockpit et un autre dédié à l’aide à la conduite. À la clé, des interfaces plus réactives et selon Qualcomm, une architecture prête à accueillir les futures applications d’IA agentique.</p><h2 id="9d5bf8" class=""><strong>Qualcomm et Google : l’IA embarquée connectée au cloud</strong></h2><p>Autre annonce clé du <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link">CES</a>, c’est l’extension du partenariat entre <a target="_blank" class="link" href="https://www.qualcomm.com/news/releases/2026/01/qualcomm-expands-decade-long-collaboration-with-google-for-autom" data-type="link">Qualcomm et Google</a>, déjà à l’œuvre depuis plus de dix ans avec Android Automotive, l’interface logiciel entre les smartphone Android et la voiture.</p><p>Les deux entreprises souhaitent accélérer le développement des véhicules définis par logiciel en combinant la puissance des puces <a target="_blank" class="link" href="https://www.qualcomm.com/snapdragon/overview" data-type="link">Snapdragon</a> avec l’IA de Google, notamment <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link">Gemini</a>. L’objectif est de faire fonctionner de concert des modèles d’IA embarqués et des modèles hébergés dans le cloud, afin d’offrir des expériences plus personnalisées.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/8157342ad276c196e344.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>« <em>Alors que l’industrie automobile évolue rapidement vers un avenir défini par le logiciel et alimenté par l’IA, cette collaboration nous permet d’intégrer nos logiciels et capacités d’IA au matériel de base de Qualcomm Technologies</em> » à explique <a target="_blank" class="link" href="https://www.ces.tech/speakers/patrick-brady/" data-type="link">Patrick Brady</a>, vice-président de l’ingénierie chez Google.</p><p>Cette approche ouvre la voie à des assistants vocaux plus intelligents, capables d’anticiper les besoins du conducteur, tout en simplifiant le travail des constructeurs grâce à une plate-forme de référence unifiée, alignée sur Android Automotive OS à partir d’Android 17.</p><p>Qualcomm introduit également les <a target="_blank" class="link" href="https://www.qualcomm.com/news/releases/2026/01/qualcomm-expands-decade-long-collaboration-with-google-for-autom" data-type="link">Snapdragon vSoC</a> sur Google Cloud. Des puces virtuelles permettant aux constructeurs de développer, tester et valider leurs logiciels automobiles directement dans le cloud, sans attendre le matériel final. Un gain de temps et de coûts significatif.</p><h2 id="22afd" class=""><strong>ZF et Qualcomm misent sur une intelligence embarquée évolutive</strong></h2><p>Dernier pilier de cette offensive, c’est la collaboration entre <a target="_blank" class="link" href="https://www.qualcomm.com/news/releases/2026/01/zf-and-qualcomm-collaborate-to-deliver-scalable-adas-solution-po" data-type="link">Qualcomm et ZF</a>, l’un des plus grands équipementiers automobiles mondiaux, basé en Allemagne. <a target="_blank" class="link" href="https://www.zf.com/france/fr/home/home.html" data-type="link">ZF</a> ne fabrique pas de voitures, mais fournit des systèmes clés à de nombreux constructeurs (Volkswagen, BMW, Mercedes-Benz, Stellantis…).</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/5603a3b2ca9de938f738.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Les deux groupes travaillent ensemble sur les <a target="_blank" class="link" href="https://www.securite-routiere.gouv.fr/chacun-son-mode-de-deplacement/dangers-de-la-route-en-voiture/equipement-de-la-voiture/adas" data-type="link">ADAS</a> (<em>Advanced Driver Assistance Systems</em>), ou les systèmes d'aides à la conduite des véhicules.<strong> </strong>Ces technologies visent à assister le conducteur via des fonctions comme le freinage automatique d’urgence, le maintien dans la voie, l’alerte anticollision ou encore l’aide au stationnement. Les ADAS constituent également la base des systèmes de conduite automatisée de niveaux 1, 2 et 3.</p><p>Qualcomm fournit sa plate-forme <a target="_blank" class="link" href="https://www.qualcomm.com/automotive/solutions/snapdragon-ride" data-type="link">Snapdragon Ride</a>, intégrée au nouveau superordinateur <a target="_blank" class="link" href="https://www.zf.com/products/en/cars/stories/proai.html" data-type="link">ZF ProAI</a>. ZF apporte ses briques logicielles ADAS (sécurité, confort, stationnement), tandis que Snapdragon Ride Pilot assure la perception par caméra, la fusion des capteurs et la prise de décision en temps réel.</p><p>Le système peut agir comme calculateur ou contrôleur central, avec une puissance allant jusqu’à 1 500 TOPS, soit l’équivalent d’un supercalculateur embarqué capable de traiter 1 500 000 milliards d’opérations par seconde dans sa configuration la plus avancée.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/c33d18092443d2e59570.jpg" alt="CES 2026 : Qualcomm, géant des puces électroniques, accélère sur la voiture intelligente avec Leapmotor, Google et ZF" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Le géant américain Qualcomm se positionne au cœur de la voiture de demain en annonçant trois partenariats stratégiques majeurs à l’occasion du CES 2026. Avec le constructeur chinois Leapmotor, avec Google pour l’IA embarquée et le cloud, et avec l’équipementier ZF pour l’assistance avancée à la conduite.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/2dac88563f1374792911.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p><strong>🎧</strong><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong>À écouter :</strong></a><a target="_blank" class="link" href="https://mondenumerique.info/episodes" data-type="link"><strong> Toute l’actualité en direct du CES 2026</strong></a></p><blockquote><p>Derrière une grande partie des objets technologiques du quotidien se cache le nom Qualcomm. Spécialiste mondial des puces électroniques et des plates-formes de calcul, le groupe américain conçoit les composants qui font fonctionner smartphones, montres connectées, écouteurs sans fil, PC, objets connectés et aussi les voitures.</p><p>Si son logo est rarement visible pour le grand public, ses technologies sont omniprésentes, au cœur des appareils que nous utilisons chaque jour. Avec ses puces Snapdragon, Qualcomm s’est imposé comme un acteur clé de l’écosystème numérique, capable de combiner puissance de calcul, connectivité, intelligence artificielle et efficacité énergétique à très grande échelle.</p></blockquote><h2 id="519398" class=""><strong>Leapmotor et Qualcomm : un cerveau central pour la voiture de demain</strong></h2><p>Qui a dit que les Américains et les Chinois ne pouvaient pas collaborer dans le domaine des technologies automobiles ? Première mondiale pour le constructeur chinois Leapmotor, son futur modèle phare, le D19, sera le premier véhicule de série à embarquer deux plates-formes Snapdragon Automotive Elite. Une architecture inédite qui marque un tournant dans la conception électronique des voitures.</p><p>Concrètement, <a target="_blank" class="link" href="https://www.qualcomm.com/news/releases/2026/01/leapmotor-and-qualcomm-debuts-world-s-first-automotive-central-c" data-type="link">Qualcomm</a> et Leapmotor ont développé un contrôleur central capable de regrouper dans un seul système des fonctions jusqu’ici séparées : le cockpit numérique (écrans, multimédia, interfaces), les aides à la conduite des véhicules (<a target="_blank" class="link" href="https://www.securite-routiere.gouv.fr/chacun-son-mode-de-deplacement/dangers-de-la-route-en-voiture/equipement-de-la-voiture/adas" data-type="link">ADAS</a>) très gourmande en puissance de calcul, les commandes de carrosserie (climatisation, éclairage, portes) et la connectivité du véhicule.</p><p>Cette approche permet de réduire fortement la complexité électronique, le nombre de calculateurs embarqués et les coûts de développement, tout en améliorant les performances globales.</p><p>Le système peut faire fonctionner simultanément plusieurs modèles d’IA avancés. Un grand modèle multimodal pour le cockpit et un autre dédié à l’aide à la conduite. À la clé, des interfaces plus réactives et selon Qualcomm, une architecture prête à accueillir les futures applications d’IA agentique.</p><h2 id="9d5bf8" class=""><strong>Qualcomm et Google : l’IA embarquée connectée au cloud</strong></h2><p>Autre annonce clé du <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link">CES</a>, c’est l’extension du partenariat entre <a target="_blank" class="link" href="https://www.qualcomm.com/news/releases/2026/01/qualcomm-expands-decade-long-collaboration-with-google-for-autom" data-type="link">Qualcomm et Google</a>, déjà à l’œuvre depuis plus de dix ans avec Android Automotive, l’interface logiciel entre les smartphone Android et la voiture.</p><p>Les deux entreprises souhaitent accélérer le développement des véhicules définis par logiciel en combinant la puissance des puces <a target="_blank" class="link" href="https://www.qualcomm.com/snapdragon/overview" data-type="link">Snapdragon</a> avec l’IA de Google, notamment <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link">Gemini</a>. L’objectif est de faire fonctionner de concert des modèles d’IA embarqués et des modèles hébergés dans le cloud, afin d’offrir des expériences plus personnalisées.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/8157342ad276c196e344.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>« <em>Alors que l’industrie automobile évolue rapidement vers un avenir défini par le logiciel et alimenté par l’IA, cette collaboration nous permet d’intégrer nos logiciels et capacités d’IA au matériel de base de Qualcomm Technologies</em> » à explique <a target="_blank" class="link" href="https://www.ces.tech/speakers/patrick-brady/" data-type="link">Patrick Brady</a>, vice-président de l’ingénierie chez Google.</p><p>Cette approche ouvre la voie à des assistants vocaux plus intelligents, capables d’anticiper les besoins du conducteur, tout en simplifiant le travail des constructeurs grâce à une plate-forme de référence unifiée, alignée sur Android Automotive OS à partir d’Android 17.</p><p>Qualcomm introduit également les <a target="_blank" class="link" href="https://www.qualcomm.com/news/releases/2026/01/qualcomm-expands-decade-long-collaboration-with-google-for-autom" data-type="link">Snapdragon vSoC</a> sur Google Cloud. Des puces virtuelles permettant aux constructeurs de développer, tester et valider leurs logiciels automobiles directement dans le cloud, sans attendre le matériel final. Un gain de temps et de coûts significatif.</p><h2 id="22afd" class=""><strong>ZF et Qualcomm misent sur une intelligence embarquée évolutive</strong></h2><p>Dernier pilier de cette offensive, c’est la collaboration entre <a target="_blank" class="link" href="https://www.qualcomm.com/news/releases/2026/01/zf-and-qualcomm-collaborate-to-deliver-scalable-adas-solution-po" data-type="link">Qualcomm et ZF</a>, l’un des plus grands équipementiers automobiles mondiaux, basé en Allemagne. <a target="_blank" class="link" href="https://www.zf.com/france/fr/home/home.html" data-type="link">ZF</a> ne fabrique pas de voitures, mais fournit des systèmes clés à de nombreux constructeurs (Volkswagen, BMW, Mercedes-Benz, Stellantis…).</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/5603a3b2ca9de938f738.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Les deux groupes travaillent ensemble sur les <a target="_blank" class="link" href="https://www.securite-routiere.gouv.fr/chacun-son-mode-de-deplacement/dangers-de-la-route-en-voiture/equipement-de-la-voiture/adas" data-type="link">ADAS</a> (<em>Advanced Driver Assistance Systems</em>), ou les systèmes d'aides à la conduite des véhicules.<strong> </strong>Ces technologies visent à assister le conducteur via des fonctions comme le freinage automatique d’urgence, le maintien dans la voie, l’alerte anticollision ou encore l’aide au stationnement. Les ADAS constituent également la base des systèmes de conduite automatisée de niveaux 1, 2 et 3.</p><p>Qualcomm fournit sa plate-forme <a target="_blank" class="link" href="https://www.qualcomm.com/automotive/solutions/snapdragon-ride" data-type="link">Snapdragon Ride</a>, intégrée au nouveau superordinateur <a target="_blank" class="link" href="https://www.zf.com/products/en/cars/stories/proai.html" data-type="link">ZF ProAI</a>. ZF apporte ses briques logicielles ADAS (sécurité, confort, stationnement), tandis que Snapdragon Ride Pilot assure la perception par caméra, la fusion des capteurs et la prise de décision en temps réel.</p><p>Le système peut agir comme calculateur ou contrôleur central, avec une puissance allant jusqu’à 1 500 TOPS, soit l’équivalent d’un supercalculateur embarqué capable de traiter 1 500 000 milliards d’opérations par seconde dans sa configuration la plus avancée.</p>]]></content:encoded><category>IA</category><category>Technologies</category></item><item><title>CES 2026 : Samsung place la maison connectée et ses nouveaux téléviseurs au cœur de sa stratégie, avec une dalle géante de 130 pouces</title><pubDate>Mon, 05 Jan 2026 14:48:00 GMT</pubDate><link>https://mondenumerique.info/blog/ces-2026-samsung-place-la-maison-connecte-et-ses-nouveaux-tlviseurs-au-cur-de-sa-stratgie-avec-une-dalle-micro-rgb-gante-de-130-pouces</link><guid isPermalink="false">695bcfdde2eb07b506873405</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/b511d23b86e6df8c3d29.jpg" alt="CES 2026 : Samsung place la maison connectée et ses nouveaux téléviseurs au cœur de sa stratégie, avec une dalle géante de 130 pouces" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Au CES 2026, Samsung a dévoilé sa vision « <em>Your Companion to AI Living</em> », centrée sur une intégration plus personnelle et contextuelle de l’intelligence artificielle dans son écosystème mobile, téléviseurs, électroménager et services. Annonces spectaculaires côté affichage : à commencer par un téléviseur Micro RGB aux dimensions hors normes.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/0e42ed8ef145c7d90ea7.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧 À écouter : </strong><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link"><strong>CES 2026 - Jour 1 : immersion au cœur du plus grand show tech mondial</strong></a></p></blockquote><h2 id="9c2e78" class=""><strong>Un téléviseur de 130 pouces pensé comme un objet d’art</strong></h2><p>C’est sans conteste la pièce maîtresse du stand Samsung tant ses dimensions impressionnent. Le constructeur sud-coréen présente le premier téléviseur Micro RGB au monde, doté d’une diagonale géante de 130 pouces. Baptisé <a target="_blank" class="link" href="https://news.samsung.com/fr/tv-micro-rgb-130-pouces" data-type="link">R95H</a>, ce modèle ultra haut de gamme incarne le nouveau sommet du premium chez Samsung.</p><p>Équipé d’une technologie d’affichage inédite, le <a target="_blank" class="link" href="https://news.samsung.com/fr/tv-micro-rgb-130-pouces" data-type="link">Micro RGB</a>, ce téléviseur est présenté par la marque comme <em>« le summum de l’innovation en matière de qualité d’image »</em>, selon Hun Lee, vice-président exécutif de la division Visual Display de Samsung Electronics. Chaque diode rouge, verte et bleue fonctionne de manière indépendante, promettant une précision colorimétrique et une luminosité inédites à cette échelle.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/4c90334182242d208c72.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Le R95H s’inscrit dans la lignée des produits iconiques et différenciants développés par Samsung depuis plus de dix ans. Son design statutaire, inspiré des galeries d’art, transforme l’écran en véritable fenêtre immersive, tandis que le système audio est directement intégré au cadre pour accompagner l’image. L’intelligence artificielle embarquée joue iun rôle en optimisant la qualité d’image en temps réel afin de renforcer le réalisme et la profondeur visuelle.</p><h2 id="bdcfd" class=""><strong>Nouveaux téléviseurs OLED et évolution de The Frame</strong></h2><p>Du côté des OLED traditionnels, la gamme Samsung 2026 franchit un nouveau palier. Le constructeur introduit une génération de dalles plus lumineuses et plus performantes, repoussant encore les limites de sa technologie <a target="_blank" class="link" href="https://www.samsung.com/ch_fr/explore/entertainment/tv-technologies/" data-type="link">QD-OLED</a>.</p><p>Les modèles haut de gamme, à commencer par le S95H, s’appuient sur une version optimisée appelé <a target="_blank" class="link" href="https://news.samsung.com/fr/guide-quantum-dots-les-innovations-de-samsung-qui-repoussent-les-limites-en-termes-de-qualite-d-image" data-type="link">Quantum Dot OLED</a>, avec une luminosité pouvant atteindre jusqu’à 4 500 nits, tout en conservant les fondamentaux de l’OLED : noirs profonds, contraste élevé et gestion fine des reflets.</p><p>Autre évolution, ces nouveaux modèles inaugurent un cadre métallique plus premium, compatible <a target="_blank" class="link" href="https://www.samsung.com/ca_fr/support/tv-audio-video/set-up-the-wireless-one-connect-box-with-your-samsung-tv/" data-type="link">Wireless One Connect Ready</a>, permettant une intégration murale quasi affleurante, sans câble visible.</p><p>Positionnée juste en dessous, la série S90H bénéficie elle aussi d’améliorations. Elle adopte désormais un écran à faible éblouissement et affiche une hausse de luminosité de 15 %, selon Samsung, réduisant l’écart avec les références haut de gamme.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/8227bb2053e54a555926.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Enfin, la gamme The Frame, pensée comme un véritable objet décoratif, poursuit son élargissement. Le The Frame Pro, lancé l’an dernier, se décline désormais en 55 pouces, venant compléter les versions 65, 75 et 85 pouces. Samsung conserve ici un rétroéclairage Mini-LED par la tranche, associé à un boîtier Wireless One Connect, pour conjuguer design, modularité et qualité d’image.</p><h2 id="26d43" class=""><strong>Nouvelles normes vidéo et audio</strong></h2><p>La gamme TV 2026 de Samsung adopte le <a target="_blank" class="link" href="https://hdr10plus.org" data-type="link">HDR10+ ADVANCED</a>, ces normes d’affichages apportant une luminosité accrue, une optimisation par genre de contenu et un lissage intelligent des mouvements.</p><p>Côté audio, le constructeur introduit Eclipsa Audio, un nouveau système de son spatial intégré, ainsi que deux enceintes Wi-Fi inédites, les Music Studio 5 et 7, dont le design est signé Erwan Bouroullec. L’objectif est de proposer une expérience sonore immersive, cohérente avec l’esthétique des espaces de vie modernes.</p><p>Les joueurs ne sont pas en reste avec la gamme Odyssey, qui monte en gamme avec des moniteurs 6K, des taux de rafraîchissement élevés et une immersion renforcée pour le gaming comme pour la création.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="en" dir="ltr">[Video] Samsung Outlines AI Vision at The First Look 2026 Press Conference<a href="https://t.co/yURALvR5n9">https://t.co/yURALvR5n9</a></p>— Samsung Electronics (@Samsung) <a href="https://twitter.com/Samsung/status/2008148744546693266?ref_src=twsrc%5Etfw">January 5, 2026</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><h2 id="eaccc" class=""><strong>Vision AI Companion : une IA au cœur de l’expérience TV</strong></h2><p>Samsung mise fortement sur l’intelligence artificielle pour transformer la télévision en véritable compagnon de divertissement. Le Vision AI Companion (VAC) analyse les usages pour proposer des recommandations de contenus, de musique et même de repas.</p><p>Des modes spécialisés comme AI Soccer Mode Pro ou AI Sound Controller Pro permettent d’ajuster finement l’image et le son, en modulant par exemple le volume de la foule ou des commentaires. Le VAC est déployé sur l’ensemble des téléviseurs Samsung 2026 (Micro LED, Micro RGB, OLED, Neo QLED, Mini LED et UHD)</p><h2 id="f0f47" class=""><strong>Maison connectée : le Family Hub au centre du foyer</strong></h2><p>Cette vision s’étend à la maison connectée, pensée comme un compagnon du quotidien. Au cœur de cette stratégie, <a target="_blank" class="link" href="https://www.samsung.com/fr/familyhub/" data-type="link">le Family Hub</a> s’impose comme un élément central : le réfrigérateur devient intelligent, proactif et contextuel.</p><p>Grâce à une mise à jour majeure de l’IA Vision, désormais développée avec Google Gemini, le Family Hub est capable d’identifier automatiquement les produits ajoutés ou retirés. Il assure ainsi un suivi précis des stocks, facilite la planification des repas et simplifie la gestion alimentaire. Le Family Hub totalise aujourd’hui dix CES Innovation Awards, tandis que les réfrigérateurs Samsung compatibles IA ont été distingués trois années consécutives, confirmant la maturité de ces innovations.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/73c1011a33933f28a1b4.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Samsung introduit également une dimension plus ludique avec la fonctionnalité « <em>Qu’y a-t-il pour aujourd’hui ?</em> », qui propose des recettes en fonction des aliments disponibles ou suggère des idées aléatoires pour lever l’indécision du quotidien.</p><p>Enfin, Samsung renforce l’intérêt économique de la maison connectée via un partenariat inédit avec <a target="_blank" class="link" href="https://www.munichre.com/hsb/en.html" data-type="link">Hartford Steam Boiler</a> (une compagnie d'assurance). L’objectif est de permettre aux utilisateurs de réduire leurs primes d’assurance habitation grâce à des appareils connectés capables de prévenir les incidents. Après un premier déploiement aux États-Unis en 2025, cette initiative doit s’étendre à d’autres régions du monde.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/b511d23b86e6df8c3d29.jpg" alt="CES 2026 : Samsung place la maison connectée et ses nouveaux téléviseurs au cœur de sa stratégie, avec une dalle géante de 130 pouces" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Au CES 2026, Samsung a dévoilé sa vision « <em>Your Companion to AI Living</em> », centrée sur une intégration plus personnelle et contextuelle de l’intelligence artificielle dans son écosystème mobile, téléviseurs, électroménager et services. Annonces spectaculaires côté affichage : à commencer par un téléviseur Micro RGB aux dimensions hors normes.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/0e42ed8ef145c7d90ea7.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧 À écouter : </strong><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link"><strong>CES 2026 - Jour 1 : immersion au cœur du plus grand show tech mondial</strong></a></p></blockquote><h2 id="9c2e78" class=""><strong>Un téléviseur de 130 pouces pensé comme un objet d’art</strong></h2><p>C’est sans conteste la pièce maîtresse du stand Samsung tant ses dimensions impressionnent. Le constructeur sud-coréen présente le premier téléviseur Micro RGB au monde, doté d’une diagonale géante de 130 pouces. Baptisé <a target="_blank" class="link" href="https://news.samsung.com/fr/tv-micro-rgb-130-pouces" data-type="link">R95H</a>, ce modèle ultra haut de gamme incarne le nouveau sommet du premium chez Samsung.</p><p>Équipé d’une technologie d’affichage inédite, le <a target="_blank" class="link" href="https://news.samsung.com/fr/tv-micro-rgb-130-pouces" data-type="link">Micro RGB</a>, ce téléviseur est présenté par la marque comme <em>« le summum de l’innovation en matière de qualité d’image »</em>, selon Hun Lee, vice-président exécutif de la division Visual Display de Samsung Electronics. Chaque diode rouge, verte et bleue fonctionne de manière indépendante, promettant une précision colorimétrique et une luminosité inédites à cette échelle.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/4c90334182242d208c72.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Le R95H s’inscrit dans la lignée des produits iconiques et différenciants développés par Samsung depuis plus de dix ans. Son design statutaire, inspiré des galeries d’art, transforme l’écran en véritable fenêtre immersive, tandis que le système audio est directement intégré au cadre pour accompagner l’image. L’intelligence artificielle embarquée joue iun rôle en optimisant la qualité d’image en temps réel afin de renforcer le réalisme et la profondeur visuelle.</p><h2 id="bdcfd" class=""><strong>Nouveaux téléviseurs OLED et évolution de The Frame</strong></h2><p>Du côté des OLED traditionnels, la gamme Samsung 2026 franchit un nouveau palier. Le constructeur introduit une génération de dalles plus lumineuses et plus performantes, repoussant encore les limites de sa technologie <a target="_blank" class="link" href="https://www.samsung.com/ch_fr/explore/entertainment/tv-technologies/" data-type="link">QD-OLED</a>.</p><p>Les modèles haut de gamme, à commencer par le S95H, s’appuient sur une version optimisée appelé <a target="_blank" class="link" href="https://news.samsung.com/fr/guide-quantum-dots-les-innovations-de-samsung-qui-repoussent-les-limites-en-termes-de-qualite-d-image" data-type="link">Quantum Dot OLED</a>, avec une luminosité pouvant atteindre jusqu’à 4 500 nits, tout en conservant les fondamentaux de l’OLED : noirs profonds, contraste élevé et gestion fine des reflets.</p><p>Autre évolution, ces nouveaux modèles inaugurent un cadre métallique plus premium, compatible <a target="_blank" class="link" href="https://www.samsung.com/ca_fr/support/tv-audio-video/set-up-the-wireless-one-connect-box-with-your-samsung-tv/" data-type="link">Wireless One Connect Ready</a>, permettant une intégration murale quasi affleurante, sans câble visible.</p><p>Positionnée juste en dessous, la série S90H bénéficie elle aussi d’améliorations. Elle adopte désormais un écran à faible éblouissement et affiche une hausse de luminosité de 15 %, selon Samsung, réduisant l’écart avec les références haut de gamme.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/8227bb2053e54a555926.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Enfin, la gamme The Frame, pensée comme un véritable objet décoratif, poursuit son élargissement. Le The Frame Pro, lancé l’an dernier, se décline désormais en 55 pouces, venant compléter les versions 65, 75 et 85 pouces. Samsung conserve ici un rétroéclairage Mini-LED par la tranche, associé à un boîtier Wireless One Connect, pour conjuguer design, modularité et qualité d’image.</p><h2 id="26d43" class=""><strong>Nouvelles normes vidéo et audio</strong></h2><p>La gamme TV 2026 de Samsung adopte le <a target="_blank" class="link" href="https://hdr10plus.org" data-type="link">HDR10+ ADVANCED</a>, ces normes d’affichages apportant une luminosité accrue, une optimisation par genre de contenu et un lissage intelligent des mouvements.</p><p>Côté audio, le constructeur introduit Eclipsa Audio, un nouveau système de son spatial intégré, ainsi que deux enceintes Wi-Fi inédites, les Music Studio 5 et 7, dont le design est signé Erwan Bouroullec. L’objectif est de proposer une expérience sonore immersive, cohérente avec l’esthétique des espaces de vie modernes.</p><p>Les joueurs ne sont pas en reste avec la gamme Odyssey, qui monte en gamme avec des moniteurs 6K, des taux de rafraîchissement élevés et une immersion renforcée pour le gaming comme pour la création.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="en" dir="ltr">[Video] Samsung Outlines AI Vision at The First Look 2026 Press Conference<a href="https://t.co/yURALvR5n9">https://t.co/yURALvR5n9</a></p>— Samsung Electronics (@Samsung) <a href="https://twitter.com/Samsung/status/2008148744546693266?ref_src=twsrc%5Etfw">January 5, 2026</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><h2 id="eaccc" class=""><strong>Vision AI Companion : une IA au cœur de l’expérience TV</strong></h2><p>Samsung mise fortement sur l’intelligence artificielle pour transformer la télévision en véritable compagnon de divertissement. Le Vision AI Companion (VAC) analyse les usages pour proposer des recommandations de contenus, de musique et même de repas.</p><p>Des modes spécialisés comme AI Soccer Mode Pro ou AI Sound Controller Pro permettent d’ajuster finement l’image et le son, en modulant par exemple le volume de la foule ou des commentaires. Le VAC est déployé sur l’ensemble des téléviseurs Samsung 2026 (Micro LED, Micro RGB, OLED, Neo QLED, Mini LED et UHD)</p><h2 id="f0f47" class=""><strong>Maison connectée : le Family Hub au centre du foyer</strong></h2><p>Cette vision s’étend à la maison connectée, pensée comme un compagnon du quotidien. Au cœur de cette stratégie, <a target="_blank" class="link" href="https://www.samsung.com/fr/familyhub/" data-type="link">le Family Hub</a> s’impose comme un élément central : le réfrigérateur devient intelligent, proactif et contextuel.</p><p>Grâce à une mise à jour majeure de l’IA Vision, désormais développée avec Google Gemini, le Family Hub est capable d’identifier automatiquement les produits ajoutés ou retirés. Il assure ainsi un suivi précis des stocks, facilite la planification des repas et simplifie la gestion alimentaire. Le Family Hub totalise aujourd’hui dix CES Innovation Awards, tandis que les réfrigérateurs Samsung compatibles IA ont été distingués trois années consécutives, confirmant la maturité de ces innovations.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/73c1011a33933f28a1b4.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p>Samsung introduit également une dimension plus ludique avec la fonctionnalité « <em>Qu’y a-t-il pour aujourd’hui ?</em> », qui propose des recettes en fonction des aliments disponibles ou suggère des idées aléatoires pour lever l’indécision du quotidien.</p><p>Enfin, Samsung renforce l’intérêt économique de la maison connectée via un partenariat inédit avec <a target="_blank" class="link" href="https://www.munichre.com/hsb/en.html" data-type="link">Hartford Steam Boiler</a> (une compagnie d'assurance). L’objectif est de permettre aux utilisateurs de réduire leurs primes d’assurance habitation grâce à des appareils connectés capables de prévenir les incidents. Après un premier déploiement aux États-Unis en 2025, cette initiative doit s’étendre à d’autres régions du monde.</p>]]></content:encoded><category>Produits Tech</category><category>Technologies</category></item><item><title>CES 2026 : LG dévoile un robot domestique autonome et un téléviseur OLED ultra-fin de 9 mm</title><pubDate>Mon, 05 Jan 2026 11:00:00 GMT</pubDate><link>https://mondenumerique.info/blog/ces-2026-lg-dvoile-un-robot-domestique-autonome-et-un-tlviseur-oled-ultra-fin-de-9-mm</link><guid isPermalink="false">695b9b1ae2eb07b5068733f7</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/559bca0820aae0a9848f.jpg" alt="CES 2026 : LG dévoile un robot domestique autonome et un téléviseur OLED ultra-fin de 9 mm" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>LG annonce au CES 2026, son robot domestique autonome CLOiD, capable de réaliser des tâches ménagères, et la nouvelle génération de téléviseurs OLED evo, dont un modèle ultra-fin et sans fil</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/4fe1f038091a970b516b.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧 À écouter : </strong><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link"><strong>CES 2026 - Jour 1 : immersion au cœur du plus grand show tech mondial</strong></a></p></blockquote><p>C’est l’une des grandes tendances du <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link">CES</a> depuis plusieurs années : les robots autonomes. LG Electronics présente pour la première fois LG CLOiD, un robot domestique compatible avec l’IA, conçu pour effectuer des tâches ménagères tout en comprenant les habitudes et le mode de vie de l’utilisateur.</p><h2 id="09cf48" class=""><strong>Préparer le petit-déjeuner et s’occuper du linge</strong></h2><p>Sur le stand du <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link">CES 2026</a>, <a target="_blank" class="link" href="https://www.lg.com/global/newsroom/news/home-appliance-and-air-solution/lg-electronics-presents-lg-cloid-home-robot-to-demonstrate-zero-labor-home-at-ces-2026/" data-type="link">LG CLOiD</a> réalise plusieurs démonstrations concrètes. Le robot est capable de préparer le petit-déjeuner en récupérant du lait dans un réfrigérateur ou en plaçant une viennoiserie dans le four. En l’absence des occupants, il peut également lancer une lessive, puis plier et empiler le linge une fois le cycle terminé.</p><p>Le robot se déplace sur une base à roues de manière autonome. Il est équipé de deux bras articulés et d’un torse inclinable et ajustable en hauteur. Chaque bras dispose de sept degrés de liberté, avec des mains composées de cinq doigts indépendants, afin de reproduire au mieux les gestes humains et manipuler des objets du quotidien. Sa navigation s’appuie sur des technologies dérivées de celles utilisées dans les aspirateurs robots de LG.</p><p>Ce compagnon autonome s’inscrit pleinement dans la vision Smart Home IA de LG, en s’appuyant sur l’écosystème ThinQ, déjà présent dans de nombreux appareils électroménagers de la marque.</p><h2 id="624008" class=""><strong>La tête : un hub IA mobile</strong></h2><p>Le visage du robot <a target="_blank" class="link" href="https://www.lg.com/global/newsroom/news/home-appliance-and-air-solution/lg-electronics-presents-lg-cloid-home-robot-to-demonstrate-zero-labor-home-at-ces-2026/" data-type="link">CLOiD</a>, dotée d’un écran, fait office de hub domestique IA mobile. Elle embarque un chipset central, des haut-parleurs, des caméras et différents capteurs, permettant au robot d’apprendre son environnement et d’interagir avec les utilisateurs.</p><p>Grâce à une IA générative vocale intégrée, CLOiD communique naturellement avec l’utilisateur et pilote les appareils connectés compatibles ThinQ, jouant le rôle de chef d’orchestre de la maison intelligente.</p><p>Pour atteindre ce niveau d’autonomie, LG a entraîné son robot sur des dizaines de milliers d’heures de données liées aux tâches domestiques. Si les démonstrations observées au CES reposent sur des scénarios maîtrisés, le constructeur assure que CLOiD sera capable d’effectuer bien d’autres tâches, en s’adaptant aux habitudes de vie et aux intentions de l’utilisateur.</p><hr><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/85e9c653e21262522b92.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><h2 id="3675b8" class=""><strong>LG Electronics dévoile sa gamme TV OLED evo 2026</strong></h2><p>LG a également profité du CES pour annoncer sa nouvelle génération de téléviseurs OLED evo 2026, marquée par le retour du téléviseur « papier peint » avec le <a target="_blank" class="link" href="https://www.lg.com/global/newsroom/news/media-entertainment-solution/lg-electronics-unveils-the-wallpaper-tv-the-worlds-thinnest-true-wireless-oled-tv/" data-type="link">LG OLED evo W6</a>.</p><p>Avec une épaisseur de seulement 9 mm, LG affirme qu’il s’agit du téléviseur OLED True Wireless le plus fin au monde. Introduit pour la première fois en 2017, le concept Wallpaper TV fait son retour avec un écran conçu pour être plaqué au mur et se fondre dans le décor, à la manière d’un tableau.</p><h2 id="c06738" class=""><strong>Un téléviseur sans fil et ultra-lumineux</strong></h2><p>Pour conserver une esthétique épurée, toutes les connexions sont déportées vers une Zero Connect Box, un boîtier externe pouvant être placé jusqu’à 10 mètres du téléviseur. Celui-ci transmet l’audio et la vidéo en 4K sans perte visible, grâce à la technologie True Wireless.</p><p>LG introduit également une nouvelle évolution de l’OLED avec la technologie Hyper Radiant Color 2 qui promet des couleurs plus intenses, une réduction des reflets et une luminosité nettement améliorée. Selon le constructeur, l’écran serait jusqu’à 3,9 fois plus lumineux que les OLED classiques.</p><p>À l’intérieur, le téléviseur fonctionne sous webOS, animé par le nouveau processeur α11 AI Gen3 (NPU 5,6 fois plus puissant). Cette puissance supplémentaire permet une meilleure réduction du bruit, tout en préservant les textures naturelles de l’image pour éviter toute sur-accentuation artificielle. Le téléviseur intègre également Google Gemini et Microsoft Copilot.</p><h2 id="b82ab" class=""><strong>Un téléviseur aussi pensé pour le jeu</strong></h2><p>Les joueurs ne sont pas oubliés. Le LG OLED evo W6 prend en charge une fréquence de rafraîchissement allant jusqu’à 165 Hz, avec la compatibilité NVIDIA G-SYNC et AMD FreeSync Premium. Le temps de réponse annoncé est de 0,1 ms, accompagné de l’ALLM (Auto Low Latency Mode), afin de garantir une expérience de jeu fluide et réactive.</p><p>Comme souvent au CES, LG utilise ces annonces comme une vitrine technologique. Aucun prix ni date de commercialisation n’ont été communiqués à ce stade.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/559bca0820aae0a9848f.jpg" alt="CES 2026 : LG dévoile un robot domestique autonome et un téléviseur OLED ultra-fin de 9 mm" /></p><p><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>LG annonce au CES 2026, son robot domestique autonome CLOiD, capable de réaliser des tâches ménagères, et la nouvelle génération de téléviseurs OLED evo, dont un modèle ultra-fin et sans fil</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/4fe1f038091a970b516b.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><blockquote><p><strong>🎧 À écouter : </strong><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link"><strong>CES 2026 - Jour 1 : immersion au cœur du plus grand show tech mondial</strong></a></p></blockquote><p>C’est l’une des grandes tendances du <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link">CES</a> depuis plusieurs années : les robots autonomes. LG Electronics présente pour la première fois LG CLOiD, un robot domestique compatible avec l’IA, conçu pour effectuer des tâches ménagères tout en comprenant les habitudes et le mode de vie de l’utilisateur.</p><h2 id="09cf48" class=""><strong>Préparer le petit-déjeuner et s’occuper du linge</strong></h2><p>Sur le stand du <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/ces-2026-jour-1-immersion-au-coeur-du-plus-grand-show-tech-mondial" data-type="link">CES 2026</a>, <a target="_blank" class="link" href="https://www.lg.com/global/newsroom/news/home-appliance-and-air-solution/lg-electronics-presents-lg-cloid-home-robot-to-demonstrate-zero-labor-home-at-ces-2026/" data-type="link">LG CLOiD</a> réalise plusieurs démonstrations concrètes. Le robot est capable de préparer le petit-déjeuner en récupérant du lait dans un réfrigérateur ou en plaçant une viennoiserie dans le four. En l’absence des occupants, il peut également lancer une lessive, puis plier et empiler le linge une fois le cycle terminé.</p><p>Le robot se déplace sur une base à roues de manière autonome. Il est équipé de deux bras articulés et d’un torse inclinable et ajustable en hauteur. Chaque bras dispose de sept degrés de liberté, avec des mains composées de cinq doigts indépendants, afin de reproduire au mieux les gestes humains et manipuler des objets du quotidien. Sa navigation s’appuie sur des technologies dérivées de celles utilisées dans les aspirateurs robots de LG.</p><p>Ce compagnon autonome s’inscrit pleinement dans la vision Smart Home IA de LG, en s’appuyant sur l’écosystème ThinQ, déjà présent dans de nombreux appareils électroménagers de la marque.</p><h2 id="624008" class=""><strong>La tête : un hub IA mobile</strong></h2><p>Le visage du robot <a target="_blank" class="link" href="https://www.lg.com/global/newsroom/news/home-appliance-and-air-solution/lg-electronics-presents-lg-cloid-home-robot-to-demonstrate-zero-labor-home-at-ces-2026/" data-type="link">CLOiD</a>, dotée d’un écran, fait office de hub domestique IA mobile. Elle embarque un chipset central, des haut-parleurs, des caméras et différents capteurs, permettant au robot d’apprendre son environnement et d’interagir avec les utilisateurs.</p><p>Grâce à une IA générative vocale intégrée, CLOiD communique naturellement avec l’utilisateur et pilote les appareils connectés compatibles ThinQ, jouant le rôle de chef d’orchestre de la maison intelligente.</p><p>Pour atteindre ce niveau d’autonomie, LG a entraîné son robot sur des dizaines de milliers d’heures de données liées aux tâches domestiques. Si les démonstrations observées au CES reposent sur des scénarios maîtrisés, le constructeur assure que CLOiD sera capable d’effectuer bien d’autres tâches, en s’adaptant aux habitudes de vie et aux intentions de l’utilisateur.</p><hr><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/85e9c653e21262522b92.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><h2 id="3675b8" class=""><strong>LG Electronics dévoile sa gamme TV OLED evo 2026</strong></h2><p>LG a également profité du CES pour annoncer sa nouvelle génération de téléviseurs OLED evo 2026, marquée par le retour du téléviseur « papier peint » avec le <a target="_blank" class="link" href="https://www.lg.com/global/newsroom/news/media-entertainment-solution/lg-electronics-unveils-the-wallpaper-tv-the-worlds-thinnest-true-wireless-oled-tv/" data-type="link">LG OLED evo W6</a>.</p><p>Avec une épaisseur de seulement 9 mm, LG affirme qu’il s’agit du téléviseur OLED True Wireless le plus fin au monde. Introduit pour la première fois en 2017, le concept Wallpaper TV fait son retour avec un écran conçu pour être plaqué au mur et se fondre dans le décor, à la manière d’un tableau.</p><h2 id="c06738" class=""><strong>Un téléviseur sans fil et ultra-lumineux</strong></h2><p>Pour conserver une esthétique épurée, toutes les connexions sont déportées vers une Zero Connect Box, un boîtier externe pouvant être placé jusqu’à 10 mètres du téléviseur. Celui-ci transmet l’audio et la vidéo en 4K sans perte visible, grâce à la technologie True Wireless.</p><p>LG introduit également une nouvelle évolution de l’OLED avec la technologie Hyper Radiant Color 2 qui promet des couleurs plus intenses, une réduction des reflets et une luminosité nettement améliorée. Selon le constructeur, l’écran serait jusqu’à 3,9 fois plus lumineux que les OLED classiques.</p><p>À l’intérieur, le téléviseur fonctionne sous webOS, animé par le nouveau processeur α11 AI Gen3 (NPU 5,6 fois plus puissant). Cette puissance supplémentaire permet une meilleure réduction du bruit, tout en préservant les textures naturelles de l’image pour éviter toute sur-accentuation artificielle. Le téléviseur intègre également Google Gemini et Microsoft Copilot.</p><h2 id="b82ab" class=""><strong>Un téléviseur aussi pensé pour le jeu</strong></h2><p>Les joueurs ne sont pas oubliés. Le LG OLED evo W6 prend en charge une fréquence de rafraîchissement allant jusqu’à 165 Hz, avec la compatibilité NVIDIA G-SYNC et AMD FreeSync Premium. Le temps de réponse annoncé est de 0,1 ms, accompagné de l’ALLM (Auto Low Latency Mode), afin de garantir une expérience de jeu fluide et réactive.</p><p>Comme souvent au CES, LG utilise ces annonces comme une vitrine technologique. Aucun prix ni date de commercialisation n’ont été communiqués à ce stade.</p>]]></content:encoded><category>IA</category><category>Robots</category><category>Technologies</category></item><item><title>Les États-Unis sanctionnent Thierry Breton : le choc d’une décision très politique</title><pubDate>Wed, 24 Dec 2025 09:54:00 GMT</pubDate><link>https://mondenumerique.info/blog/les-tats-unis-sanctionnent-thierry-breton-le-choc-dune-dcision-trs-politique</link><guid isPermalink="false">694bb8efcecb10ca315b3e8f</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/d7e86f5697921833c99b.jpg" alt="Les États-Unis sanctionnent Thierry Breton : le choc d’une décision très politique" /></p><p dir="ltr"><span style="font-size: 18px"><strong>Décision rarissime et hautement symbolique : les États-Unis ont décidé d’interdire l’entrée sur leur territoire à l'ex commissaire européen Thierry Breton pour sa responsabilité dans la règlementation anti-Gafam. Un geste politique fort, qui illustre la montée des tensions transatlantiques autour du contrôle des géants de la tech.</strong></span></p><img data-type="imageBlock" src="https://upload.wikimedia.org/wikipedia/commons/thumb/d/d8/Hearing_of_Commissioner-designate_Thierry_Breton_%2849068069128%29.jpg/960px-Hearing_of_Commissioner-designate_Thierry_Breton_%2849068069128%29.jpg?20191115121103" alt="Audience du commissaire désigné Thierry Breton (49068069128).jpg" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr"><span style="font-size: 12px">Thierry Breton en 2019 au Parlement Européen (</span><a target="_blank" class="link" href="https://flickr.com/photos/36612355@N08/49068069128" data-type="link"><span style="font-size: 12px">image </span><span style="color: rgb(32, 33, 34); font-size: 12px">Pietro Naj-Oleari CC</span></a><span style="font-size: 12px">)</span></p><p dir="ltr"><strong>Les faits. </strong>La décision est tombée sans préavis : Thierry Breton, ancien commissaire européen au Marché intérieur, soudainement déclaré persona non grata aux Etats-Unis. Quatre autres personnalités européennes engagées dans la régulation du numérique et la lutte contre la désinformation sont également concernées.</p><p dir="ltr">Selon Washington, ces responsables auraient mené des actions assimilées à une forme de pression ou de « censure » à l’encontre de plateformes américaines, dans le cadre de l’application des grandes lois européennes sur le numérique, au premier rang desquelles le <em>Digital Services Act</em> (DSA). </p><p dir="ltr">C’est la première fois que les États-Unis prennent une mesure aussi directe et ciblée contre des régulateurs européens, et le symbole est fort : il marque un durcissement assumé dans le bras de fer transatlantique autour du contrôle des géants du numérique.</p><p dir="ltr"><span style="color: rgb(56, 63, 78); font-size: 18px">L’administration Trump ⁠évoque une "entrave à la liberté d’expression", souvent évoquée par les nouveaux leaders américains, du vice-président JD Vance à Elon Musk. Le secrétaire d’Etat américain Marco Rubio a estimé sur X que </span><em>«&nbsp;depuis trop longtemps, les idéologues européens mènent des actions concertées pour contraindre les plateformes américaines à sanctionner les opinions américaines auxquelles ils s’opposent&nbsp;»</em><span style="color: rgb(56, 63, 78); font-size: 18px"><em>.</em></span></p><h2 dir="ltr" id="c086a" class="">Décision "injustifiée", selon la France</h2><p dir="ltr">La France a rapidement réagi, dénonçant une décision « injustifiée » et rappelant que le DSA est une loi européenne adoptée démocratiquement, appliquée dans un cadre juridique clair et transparent. Paris souligne que ces règles ne visent pas à discriminer les entreprises américaines, mais à protéger les citoyens européens, leurs données et l’espace public numérique.</p><p dir="ltr">De son côté, Thierry Breton s’est dit choqué par cette mesure, tout en réaffirmant la légitimité de l’action européenne. Il rappelle que la régulation du numérique n’est pas une attaque idéologique contre les États-Unis, mais une réponse politique à des enjeux devenus centraux : désinformation, abus de position dominante, sécurité et souveraineté numérique.</p><h2 dir="ltr" id="778f18" class="">Symbole de la résistance anti-Gafam</h2><p dir="ltr"><strong>Analyse. </strong>Dans <em>Monde Numérique</em>, nous avons souvent souligné la complexité de la position européenne face aux grandes plateformes technologiques.<br>L’Union européenne doit avancer sur une ligne de crête en tentant, à la fois, de se protéger contre les appétits économiques des big tech américaines sans pour autant restreindre l’accès à des outils numériques devenus indispensables ni freiner l’innovation en Europe par des réglementations trop contraignantes.</p><p dir="ltr">À ce titre, Thierry Breton incarne sans doute mieux que quiconque cette volonté européenne de défense des règles et de la souveraineté numérique, avec sa fameuse formule « <em>ce qui est interdit dans l'espace physique, doit l'être aussi sur Internet </em>».</p><p dir="ltr">Mais l’Europe a peut-être sous-estimé à quel point cette stratégie contrariait les intérêts de l'Amérique Trumpiste. En s’attaquant frontalement aux mécanismes économiques et à l’influence des grandes plateformes, Bruxelles a touché à un nerf stratégique de la puissance américaine — bien au-delà d’un simple débat technique sur la modération des contenus.</p><h2 dir="ltr" id="9e5ec" class="">Le pire à venir ?</h2><p dir="ltr">Reste à savoir si cette décision restera un geste isolé ou si elle préfigure d'autres décision qui pourraient s'avérer lourdes de conséquences pour les citoyens européens.</p><p dir="ltr">Sur X, Gilles Babinet estime que cette sanction évoque la menace qui pèse sur l'Europe en matière de numérique et appelle à un sursaut.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="fr" dir="ltr">Thierry Breton et quatre autres européens interdits de sol américain. Imaginer une seconde que cela va en rester là serait naïf. L'iA et le numérique vont immanquablement devenir le principal thème d'affrontement entre USA et Europe, tant ces technologies sont appelés à être des…</p>— Gilles Babinet (@babgi) <a href="https://twitter.com/babgi/status/2003609893794906463?ref_src=twsrc%5Etfw">December 23, 2025</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><p dir="ltr">Cette affaire dépasse largement le cas de Thierry Breton et pose une question centrale pour les années à venir : jusqu’où l’Europe peut-elle aller dans la régulation du numérique et comment peut-elle relever l'impossible défi de la souveraineté numérique, en un temps qui semble de plus en plus court pour réagir ?</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/d7e86f5697921833c99b.jpg" alt="Les États-Unis sanctionnent Thierry Breton : le choc d’une décision très politique" /></p><p dir="ltr"><span style="font-size: 18px"><strong>Décision rarissime et hautement symbolique : les États-Unis ont décidé d’interdire l’entrée sur leur territoire à l'ex commissaire européen Thierry Breton pour sa responsabilité dans la règlementation anti-Gafam. Un geste politique fort, qui illustre la montée des tensions transatlantiques autour du contrôle des géants de la tech.</strong></span></p><img data-type="imageBlock" src="https://upload.wikimedia.org/wikipedia/commons/thumb/d/d8/Hearing_of_Commissioner-designate_Thierry_Breton_%2849068069128%29.jpg/960px-Hearing_of_Commissioner-designate_Thierry_Breton_%2849068069128%29.jpg?20191115121103" alt="Audience du commissaire désigné Thierry Breton (49068069128).jpg" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr"><span style="font-size: 12px">Thierry Breton en 2019 au Parlement Européen (</span><a target="_blank" class="link" href="https://flickr.com/photos/36612355@N08/49068069128" data-type="link"><span style="font-size: 12px">image </span><span style="color: rgb(32, 33, 34); font-size: 12px">Pietro Naj-Oleari CC</span></a><span style="font-size: 12px">)</span></p><p dir="ltr"><strong>Les faits. </strong>La décision est tombée sans préavis : Thierry Breton, ancien commissaire européen au Marché intérieur, soudainement déclaré persona non grata aux Etats-Unis. Quatre autres personnalités européennes engagées dans la régulation du numérique et la lutte contre la désinformation sont également concernées.</p><p dir="ltr">Selon Washington, ces responsables auraient mené des actions assimilées à une forme de pression ou de « censure » à l’encontre de plateformes américaines, dans le cadre de l’application des grandes lois européennes sur le numérique, au premier rang desquelles le <em>Digital Services Act</em> (DSA). </p><p dir="ltr">C’est la première fois que les États-Unis prennent une mesure aussi directe et ciblée contre des régulateurs européens, et le symbole est fort : il marque un durcissement assumé dans le bras de fer transatlantique autour du contrôle des géants du numérique.</p><p dir="ltr"><span style="color: rgb(56, 63, 78); font-size: 18px">L’administration Trump ⁠évoque une "entrave à la liberté d’expression", souvent évoquée par les nouveaux leaders américains, du vice-président JD Vance à Elon Musk. Le secrétaire d’Etat américain Marco Rubio a estimé sur X que </span><em>«&nbsp;depuis trop longtemps, les idéologues européens mènent des actions concertées pour contraindre les plateformes américaines à sanctionner les opinions américaines auxquelles ils s’opposent&nbsp;»</em><span style="color: rgb(56, 63, 78); font-size: 18px"><em>.</em></span></p><h2 dir="ltr" id="c086a" class="">Décision "injustifiée", selon la France</h2><p dir="ltr">La France a rapidement réagi, dénonçant une décision « injustifiée » et rappelant que le DSA est une loi européenne adoptée démocratiquement, appliquée dans un cadre juridique clair et transparent. Paris souligne que ces règles ne visent pas à discriminer les entreprises américaines, mais à protéger les citoyens européens, leurs données et l’espace public numérique.</p><p dir="ltr">De son côté, Thierry Breton s’est dit choqué par cette mesure, tout en réaffirmant la légitimité de l’action européenne. Il rappelle que la régulation du numérique n’est pas une attaque idéologique contre les États-Unis, mais une réponse politique à des enjeux devenus centraux : désinformation, abus de position dominante, sécurité et souveraineté numérique.</p><h2 dir="ltr" id="778f18" class="">Symbole de la résistance anti-Gafam</h2><p dir="ltr"><strong>Analyse. </strong>Dans <em>Monde Numérique</em>, nous avons souvent souligné la complexité de la position européenne face aux grandes plateformes technologiques.<br>L’Union européenne doit avancer sur une ligne de crête en tentant, à la fois, de se protéger contre les appétits économiques des big tech américaines sans pour autant restreindre l’accès à des outils numériques devenus indispensables ni freiner l’innovation en Europe par des réglementations trop contraignantes.</p><p dir="ltr">À ce titre, Thierry Breton incarne sans doute mieux que quiconque cette volonté européenne de défense des règles et de la souveraineté numérique, avec sa fameuse formule « <em>ce qui est interdit dans l'espace physique, doit l'être aussi sur Internet </em>».</p><p dir="ltr">Mais l’Europe a peut-être sous-estimé à quel point cette stratégie contrariait les intérêts de l'Amérique Trumpiste. En s’attaquant frontalement aux mécanismes économiques et à l’influence des grandes plateformes, Bruxelles a touché à un nerf stratégique de la puissance américaine — bien au-delà d’un simple débat technique sur la modération des contenus.</p><h2 dir="ltr" id="9e5ec" class="">Le pire à venir ?</h2><p dir="ltr">Reste à savoir si cette décision restera un geste isolé ou si elle préfigure d'autres décision qui pourraient s'avérer lourdes de conséquences pour les citoyens européens.</p><p dir="ltr">Sur X, Gilles Babinet estime que cette sanction évoque la menace qui pèse sur l'Europe en matière de numérique et appelle à un sursaut.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="fr" dir="ltr">Thierry Breton et quatre autres européens interdits de sol américain. Imaginer une seconde que cela va en rester là serait naïf. L'iA et le numérique vont immanquablement devenir le principal thème d'affrontement entre USA et Europe, tant ces technologies sont appelés à être des…</p>— Gilles Babinet (@babgi) <a href="https://twitter.com/babgi/status/2003609893794906463?ref_src=twsrc%5Etfw">December 23, 2025</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><p dir="ltr">Cette affaire dépasse largement le cas de Thierry Breton et pose une question centrale pour les années à venir : jusqu’où l’Europe peut-elle aller dans la régulation du numérique et comment peut-elle relever l'impossible défi de la souveraineté numérique, en un temps qui semble de plus en plus court pour réagir ?</p>]]></content:encoded><category>Politique</category></item><item><title>Cyberattaque de Noël : comment des pirates ont mis La Poste à genoux en pleine période des fêtes</title><pubDate>Tue, 23 Dec 2025 16:08:00 GMT</pubDate><link>https://mondenumerique.info/blog/cyberattaque-contre-les-services-de-la-poste-le-site-colissimo-toujours-inaccessible-mais-les-cadeaux-de-nol-devraient-arriver</link><guid isPermalink="false">694abeb3cecb10ca315b3e5b</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/c9c9131a6a009a76a6e7.jpg" alt="Cyberattaque de Noël : comment des pirates ont mis La Poste à genoux en pleine période des fêtes" /></p><p dir="ltr"><strong>Alors que les Français se préparaient à célébrer les fêtes, des pirates informatiques sont venus jouer les trouble-fête. Une cyberattaque massive a frappé le site Web de La Poste cette semaine, entrainant une série de dysfonctionnements.</strong></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/7bc7e2db106a64c35e79.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Alors que la France se prépare à célébrer les fêtes, des pirates informatiques ont ciblé les infrastructures numériques du groupe. Selon La Poste, il s’agit d’une attaque informatique qui n’a pas affecté les données personnelles de ses clients.</p><p dir="ltr">Les sites <a target="_blank" class="link" href="http://laposte.fr" data-type="link"><strong>laposte.fr</strong></a>, <a target="_blank" class="link" href="http://colissimo.fr" data-type="link"><strong>colissimo.fr</strong></a>, <a target="_blank" class="link" href="http://lapostebanque.fr" data-type="link"><strong>lapostebanque.fr</strong></a>, Digiposte, ainsi que les applications mobiles, sont devenus inaccessibles. Une amélioration progressive est toujours en cours depuis hier. Ce mardi après-midi, La Banque Postale confirme le rétablissement progressif de ses services « <em>L’accès à nos services en ligne s’est amélioré dans la matinée, mais la situation reste très perturbée avec de nombreux ralentissements.</em> »</p><p dir="ltr">Mais des perturbations continuent d’affecter plusieurs services. Nous avons notamment pu le constater sur le sites <a target="_blank" class="link" href="http://laposte.fr" data-type="link"><strong>laposte.fr</strong></a> et Colissimo ainsi que sur l’application mobile, où un message d’erreur apparaît toujours.</p><h3 dir="ltr" id="1531f" class=""><strong>Une attaque visant à saturer les serveurs</strong></h3><p dir="ltr">L’attaque subie par La Poste est de type DDoS (déni de service distribué), a précisé l’entreprise. Elle consiste à inonder un site ou un serveur de millions de requêtes simultanées, saturant ses ressources et sa bande passante jusqu’à le rendre inaccessible aux utilisateurs.</p><p dir="ltr">Cela a principalement visé les services en ligne grand public (suivi de colis, comptes clients), mais a également impacté certains outils internes utilisés par les agents pour le suivi et la gestion logistique.</p><p dir="ltr">Le parquet de Paris a indiqué à Franceinfo en fin de journée qu’une enquête a été ouverte pour <em>« entrave au fonctionnement d’un système de traitement automatisé de données »</em>. L’enquête est confiée à la section cybercriminalité du parquet de Paris ainsi qu’à la brigade de lutte contre la cybercriminalité, afin d’identifier les raisons précises de cette cyberattaque, qui n’a pas été revendiquée à ce stade.</p><h3 dir="ltr" id="1c64c8" class=""><strong>Des retours progressifs, mais une situation encore instable</strong></h3><p dir="ltr">La Banque Postale fonctionne de nouveau presque normalement, tout comme l’identité numérique Digiposte. En revanche, le site <a target="_blank" class="link" href="http://laposte.fr" data-type="link"><strong>laposte.fr</strong></a>, l’application mobile et surtout Colissimo restent encore inaccessibles. Impossible de suivre par exemple l’acheminement d’un colis ou de consulter son compte en ligne.</p><p dir="ltr">Une attaque réussie pour ces pirates informatiques, puisqu’elle a eu lieu il y a plus de 24 heures et que plusieurs services en ligne demeurent encore inaccessibles.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="fr" dir="ltr">L'accès à nos services en ligne s'est amélioré dans la matinée mais la situation reste très perturbée avec de nombreux ralentissements.</p>— La Banque Postale (@LaBanquePostale) <a href="https://twitter.com/LaBanquePostale/status/2003438387454472616?ref_src=twsrc%5Etfw">December 23, 2025</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><h3 dir="ltr" id="919aa" class=""><strong>Des colis livrés, mais sans suivi numérique</strong></h3><p dir="ltr">Malgré ces dysfonctionnements, La Poste assure que la distribution des colis (avec pic anticipé de près de 180 millions d’envois sur novembre-décembre) se poursuit normalement. Un porte-parole du groupe, joint par RTL, affirme que la livraison se fait « <em>normalement</em> ».</p><p dir="ltr">Même message du côté du gouvernement. Ce matin, sur BFMTV/RMC, le ministre de l’Économie Roland Lescure a tenu à rassurer : « <em>Aucune donnée personnelle n’a été aspirée. Si vous avez commandé un colis pour Noël, vous n’avez aujourd’hui pas les moyens de vérifier son suivi en ligne, mais le colis, lui, est en train d’arriver. La priorité des priorités, c’est que les colis arrivent à temps pour Noël</em>. »</p><p dir="ltr">Sur le terrain La Poste indique que ses agents mettent les bouchées doubles pour assurer les livraisons. Des solutions alternatives personnalisées sont mises en place, notamment lorsque l’accès aux codes nécessaires à la livraison ne fonctionne plus.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/c9c9131a6a009a76a6e7.jpg" alt="Cyberattaque de Noël : comment des pirates ont mis La Poste à genoux en pleine période des fêtes" /></p><p dir="ltr"><strong>Alors que les Français se préparaient à célébrer les fêtes, des pirates informatiques sont venus jouer les trouble-fête. Une cyberattaque massive a frappé le site Web de La Poste cette semaine, entrainant une série de dysfonctionnements.</strong></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/7bc7e2db106a64c35e79.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Alors que la France se prépare à célébrer les fêtes, des pirates informatiques ont ciblé les infrastructures numériques du groupe. Selon La Poste, il s’agit d’une attaque informatique qui n’a pas affecté les données personnelles de ses clients.</p><p dir="ltr">Les sites <a target="_blank" class="link" href="http://laposte.fr" data-type="link"><strong>laposte.fr</strong></a>, <a target="_blank" class="link" href="http://colissimo.fr" data-type="link"><strong>colissimo.fr</strong></a>, <a target="_blank" class="link" href="http://lapostebanque.fr" data-type="link"><strong>lapostebanque.fr</strong></a>, Digiposte, ainsi que les applications mobiles, sont devenus inaccessibles. Une amélioration progressive est toujours en cours depuis hier. Ce mardi après-midi, La Banque Postale confirme le rétablissement progressif de ses services « <em>L’accès à nos services en ligne s’est amélioré dans la matinée, mais la situation reste très perturbée avec de nombreux ralentissements.</em> »</p><p dir="ltr">Mais des perturbations continuent d’affecter plusieurs services. Nous avons notamment pu le constater sur le sites <a target="_blank" class="link" href="http://laposte.fr" data-type="link"><strong>laposte.fr</strong></a> et Colissimo ainsi que sur l’application mobile, où un message d’erreur apparaît toujours.</p><h3 dir="ltr" id="1531f" class=""><strong>Une attaque visant à saturer les serveurs</strong></h3><p dir="ltr">L’attaque subie par La Poste est de type DDoS (déni de service distribué), a précisé l’entreprise. Elle consiste à inonder un site ou un serveur de millions de requêtes simultanées, saturant ses ressources et sa bande passante jusqu’à le rendre inaccessible aux utilisateurs.</p><p dir="ltr">Cela a principalement visé les services en ligne grand public (suivi de colis, comptes clients), mais a également impacté certains outils internes utilisés par les agents pour le suivi et la gestion logistique.</p><p dir="ltr">Le parquet de Paris a indiqué à Franceinfo en fin de journée qu’une enquête a été ouverte pour <em>« entrave au fonctionnement d’un système de traitement automatisé de données »</em>. L’enquête est confiée à la section cybercriminalité du parquet de Paris ainsi qu’à la brigade de lutte contre la cybercriminalité, afin d’identifier les raisons précises de cette cyberattaque, qui n’a pas été revendiquée à ce stade.</p><h3 dir="ltr" id="1c64c8" class=""><strong>Des retours progressifs, mais une situation encore instable</strong></h3><p dir="ltr">La Banque Postale fonctionne de nouveau presque normalement, tout comme l’identité numérique Digiposte. En revanche, le site <a target="_blank" class="link" href="http://laposte.fr" data-type="link"><strong>laposte.fr</strong></a>, l’application mobile et surtout Colissimo restent encore inaccessibles. Impossible de suivre par exemple l’acheminement d’un colis ou de consulter son compte en ligne.</p><p dir="ltr">Une attaque réussie pour ces pirates informatiques, puisqu’elle a eu lieu il y a plus de 24 heures et que plusieurs services en ligne demeurent encore inaccessibles.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="fr" dir="ltr">L'accès à nos services en ligne s'est amélioré dans la matinée mais la situation reste très perturbée avec de nombreux ralentissements.</p>— La Banque Postale (@LaBanquePostale) <a href="https://twitter.com/LaBanquePostale/status/2003438387454472616?ref_src=twsrc%5Etfw">December 23, 2025</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><h3 dir="ltr" id="919aa" class=""><strong>Des colis livrés, mais sans suivi numérique</strong></h3><p dir="ltr">Malgré ces dysfonctionnements, La Poste assure que la distribution des colis (avec pic anticipé de près de 180 millions d’envois sur novembre-décembre) se poursuit normalement. Un porte-parole du groupe, joint par RTL, affirme que la livraison se fait « <em>normalement</em> ».</p><p dir="ltr">Même message du côté du gouvernement. Ce matin, sur BFMTV/RMC, le ministre de l’Économie Roland Lescure a tenu à rassurer : « <em>Aucune donnée personnelle n’a été aspirée. Si vous avez commandé un colis pour Noël, vous n’avez aujourd’hui pas les moyens de vérifier son suivi en ligne, mais le colis, lui, est en train d’arriver. La priorité des priorités, c’est que les colis arrivent à temps pour Noël</em>. »</p><p dir="ltr">Sur le terrain La Poste indique que ses agents mettent les bouchées doubles pour assurer les livraisons. Des solutions alternatives personnalisées sont mises en place, notamment lorsque l’accès aux codes nécessaires à la livraison ne fonctionne plus.</p>]]></content:encoded></item><item><title>Panne d&apos;électricité à San Francisco : les taxis autonomes Waymo en rade </title><pubDate>Mon, 22 Dec 2025 10:37:00 GMT</pubDate><link>https://mondenumerique.info/blog/les-taxis-autonomes-waymo-mis-en-chec-en-raison-dune-panne-gant-dlectricit</link><guid isPermalink="false">69491fb63a11da0d13305980</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/07c7f3884d0bcbd7efd9.jpg" alt="Panne d'électricité à San Francisco : les taxis autonomes Waymo en rade " /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Samedi à San Francisco, des scènes pour le moins insolites ont été observées dans les rues de la ville. Les taxis autonomes de la société Waymo se sont retrouvés immobilisés, feux de détresse activés, à l’approche de feux de circulation hors service. En cause, une panne d’électricité majeure, déclenchée par un incendie sur une installation électrique.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/a8a6abd79293e9cf5e24.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr"><strong>Le coup de la panne. </strong>Les taxis autonomes de <a target="_blank" class="link" href="https://waymo.com" data-type="link">Waymo</a>, souvent vantés pour leur efficacité dans les villes américaines, ont connu un sérieux revers ce week-end à San Francisco. Samedi, un incendie sur un poste électrique de Pacific Gas &amp; Electric, l’opérateur local d’électricité et de gaz, a provoqué une vaste coupure de courant. Résultat : environ 130 000 foyers privés d’électricité, de nombreuses rues plongées dans le noir, des feux de circulation éteints et, du coup, des centaines de robotaxis tétanisés.</p><h2 dir="ltr" id="ed33e" class=""><strong>Des taxis autonomes bloqués les uns derrière les autres</strong></h2><p dir="ltr">Très vite, des internautes tes ont partagé sur les réseaux sociaux des images impressionnantes de longues files de voitures bloquées, parfois composées de dizaines de taxis autonomes <a target="_blank" class="link" href="https://waymo.com" data-type="link">Waymo</a>. Feux de détresse enclenchés, ces véhicules semblaient incapables de gérer une situation pourtant simple pour un conducteur humain : franchir un carrefour sans signalisation active.</p><p dir="ltr">Certains véhicules ont fini par redémarrer prudemment. D’autres, en revanche se sont immobilisés par mesure de sécurité, les uns derrière les autres, obligeant les automobilistes à les contourner en remontant les files bloquées.</p><p dir="ltr">Face à la gêne provoquée dans la circulation et aux difficultés rencontrées par les passagers à bord, Waymo a décidé, dans la soirée de suspendre temporairement son service. Par la voix de sa porte-parole Suzanne Philion « <em>Nous avons temporairement suspendu nos services de transport à la demande compte tenu de la panne de courant généralisée à San Francisco. »</em></p><p dir="ltr">Des agents ont alors été dépêchés pour reprendre le contrôle des véhicules, à distance ou directement sur place.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="en" dir="ltr">Waymo's self-driving cars were put on pause by the company on Saturday in San Francisco after the autonomous vehicles were baffled by the lack of traffic signals due to a widespread power outage in the city. <a href="https://t.co/t6NgkBCTe7">https://t.co/t6NgkBCTe7</a> <a href="https://t.co/cXoK0yuvTw">pic.twitter.com/cXoK0yuvTw</a></p>— ABC News (@ABC) <a href="https://twitter.com/ABC/status/2002891375440724220?ref_src=twsrc%5Etfw">December 21, 2025</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><h2 dir="ltr" id="cd3b28" class=""><strong>Des machines face à leurs limites</strong></h2><p dir="ltr">Cette affaire est intéressante car elle souligne les limites de la conduite autonome de plus en plus mise en avant, notamment aux États-Unis, et en Chine ce qui devrait permettre à l'opérateur d'améliorer encore le système pour qu'il soit capable de répondre à toujours plus de situations imprévues.</p><p dir="ltr">Waymo a assuré tirer des enseignements de cet épisode. L’entreprise explique que ses véhicules sont programmés pour considérer un feu éteint comme un carrefour à quatre stops, en avançant prudemment après analyse de la situation. Mais l’ampleur inédite de la panne, avec un très grand nombre de feux hors service simultanément, a conduit certains véhicules à rester immobilisés plus longtemps que prévu, voire à s’arrêter totalement par sécurité.</p><p dir="ltr">Habituellement saluées pour leur fluidité et leur capacité à analyser leur environnement en temps réel, les voitures autonomes ont cette fois échoué dans un scénario simple, que la majorité des conducteurs humains savent gérer instinctivement.</p><h2 dir="ltr" id="d9d8c" class=""><strong>Musk fanfaronne</strong></h2><p dir="ltr">Elon Musk n’a pas manqué de réagir sur X en mettant en que “<em>Les robotaxis Tesla n’ont pas été affectés par la panne de courant à San Francisco</em>”, en partageant un court extrait vidéo montrant une Tesla en conduite surpervisé circulant normalement dans les rues plongées dans le noir de San Francisco.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="en" dir="ltr">Tesla Robotaxis were unaffected by the SF power outage <a href="https://t.co/uaYlhcSx25">https://t.co/uaYlhcSx25</a></p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/2002774307659997582?ref_src=twsrc%5Etfw">December 21, 2025</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><p dir="ltr">Tesla n’opère pas encore de service robotaxi pleinement autonome sans conducteur à San Francisco, mais utilise le <a target="_blank" class="link" href="https://mondenumerique.info/blog/bientt-des-tesla-autonomes-sur-les-routes-de-france-en-test" data-type="link">FSD (Full Self Driving)</a>, supervisé avec un humain à bord, ce qui a permis de naviguer la panne sans blocage rapporté. Cette robustesse est attribuée à la technologie Tesla basée sur caméras et IA pure, sans dépendance forte aux cartes détaillées ou capteurs LiDAR comme Waymo.</p><p></p><p></p><p></p><p></p><p></p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/07c7f3884d0bcbd7efd9.jpg" alt="Panne d'électricité à San Francisco : les taxis autonomes Waymo en rade " /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Samedi à San Francisco, des scènes pour le moins insolites ont été observées dans les rues de la ville. Les taxis autonomes de la société Waymo se sont retrouvés immobilisés, feux de détresse activés, à l’approche de feux de circulation hors service. En cause, une panne d’électricité majeure, déclenchée par un incendie sur une installation électrique.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/a8a6abd79293e9cf5e24.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr"><strong>Le coup de la panne. </strong>Les taxis autonomes de <a target="_blank" class="link" href="https://waymo.com" data-type="link">Waymo</a>, souvent vantés pour leur efficacité dans les villes américaines, ont connu un sérieux revers ce week-end à San Francisco. Samedi, un incendie sur un poste électrique de Pacific Gas &amp; Electric, l’opérateur local d’électricité et de gaz, a provoqué une vaste coupure de courant. Résultat : environ 130 000 foyers privés d’électricité, de nombreuses rues plongées dans le noir, des feux de circulation éteints et, du coup, des centaines de robotaxis tétanisés.</p><h2 dir="ltr" id="ed33e" class=""><strong>Des taxis autonomes bloqués les uns derrière les autres</strong></h2><p dir="ltr">Très vite, des internautes tes ont partagé sur les réseaux sociaux des images impressionnantes de longues files de voitures bloquées, parfois composées de dizaines de taxis autonomes <a target="_blank" class="link" href="https://waymo.com" data-type="link">Waymo</a>. Feux de détresse enclenchés, ces véhicules semblaient incapables de gérer une situation pourtant simple pour un conducteur humain : franchir un carrefour sans signalisation active.</p><p dir="ltr">Certains véhicules ont fini par redémarrer prudemment. D’autres, en revanche se sont immobilisés par mesure de sécurité, les uns derrière les autres, obligeant les automobilistes à les contourner en remontant les files bloquées.</p><p dir="ltr">Face à la gêne provoquée dans la circulation et aux difficultés rencontrées par les passagers à bord, Waymo a décidé, dans la soirée de suspendre temporairement son service. Par la voix de sa porte-parole Suzanne Philion « <em>Nous avons temporairement suspendu nos services de transport à la demande compte tenu de la panne de courant généralisée à San Francisco. »</em></p><p dir="ltr">Des agents ont alors été dépêchés pour reprendre le contrôle des véhicules, à distance ou directement sur place.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="en" dir="ltr">Waymo's self-driving cars were put on pause by the company on Saturday in San Francisco after the autonomous vehicles were baffled by the lack of traffic signals due to a widespread power outage in the city. <a href="https://t.co/t6NgkBCTe7">https://t.co/t6NgkBCTe7</a> <a href="https://t.co/cXoK0yuvTw">pic.twitter.com/cXoK0yuvTw</a></p>— ABC News (@ABC) <a href="https://twitter.com/ABC/status/2002891375440724220?ref_src=twsrc%5Etfw">December 21, 2025</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><h2 dir="ltr" id="cd3b28" class=""><strong>Des machines face à leurs limites</strong></h2><p dir="ltr">Cette affaire est intéressante car elle souligne les limites de la conduite autonome de plus en plus mise en avant, notamment aux États-Unis, et en Chine ce qui devrait permettre à l'opérateur d'améliorer encore le système pour qu'il soit capable de répondre à toujours plus de situations imprévues.</p><p dir="ltr">Waymo a assuré tirer des enseignements de cet épisode. L’entreprise explique que ses véhicules sont programmés pour considérer un feu éteint comme un carrefour à quatre stops, en avançant prudemment après analyse de la situation. Mais l’ampleur inédite de la panne, avec un très grand nombre de feux hors service simultanément, a conduit certains véhicules à rester immobilisés plus longtemps que prévu, voire à s’arrêter totalement par sécurité.</p><p dir="ltr">Habituellement saluées pour leur fluidité et leur capacité à analyser leur environnement en temps réel, les voitures autonomes ont cette fois échoué dans un scénario simple, que la majorité des conducteurs humains savent gérer instinctivement.</p><h2 dir="ltr" id="d9d8c" class=""><strong>Musk fanfaronne</strong></h2><p dir="ltr">Elon Musk n’a pas manqué de réagir sur X en mettant en que “<em>Les robotaxis Tesla n’ont pas été affectés par la panne de courant à San Francisco</em>”, en partageant un court extrait vidéo montrant une Tesla en conduite surpervisé circulant normalement dans les rues plongées dans le noir de San Francisco.</p><div data-type="htmlSnippet"><div class="codeContainer"><blockquote class="twitter-tweet"><p lang="en" dir="ltr">Tesla Robotaxis were unaffected by the SF power outage <a href="https://t.co/uaYlhcSx25">https://t.co/uaYlhcSx25</a></p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/2002774307659997582?ref_src=twsrc%5Etfw">December 21, 2025</a></blockquote> <script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></div></div><p dir="ltr">Tesla n’opère pas encore de service robotaxi pleinement autonome sans conducteur à San Francisco, mais utilise le <a target="_blank" class="link" href="https://mondenumerique.info/blog/bientt-des-tesla-autonomes-sur-les-routes-de-france-en-test" data-type="link">FSD (Full Self Driving)</a>, supervisé avec un humain à bord, ce qui a permis de naviguer la panne sans blocage rapporté. Cette robustesse est attribuée à la technologie Tesla basée sur caméras et IA pure, sans dépendance forte aux cartes détaillées ou capteurs LiDAR comme Waymo.</p><p></p><p></p><p></p><p></p><p></p>]]></content:encoded><category>Transports</category></item><item><title>Google détecte désormais avec certitude les vidéos générées par l’IA, mais uniquement celles issues de ses propres outils</title><pubDate>Fri, 19 Dec 2025 12:23:00 GMT</pubDate><link>https://mondenumerique.info/blog/google-dtecte-dsormais-avec-certitude-les-vidos-gnres-par-lia-mais-uniquement-celles-issues-de-ses-propres-outils</link><guid isPermalink="false">694547586814c48beb41b5a0</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/4224f3a9af17d5fee5d3.jpg" alt="Google détecte désormais avec certitude les vidéos générées par l’IA, mais uniquement celles issues de ses propres outils" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Avec son IA Gemini, Google permet désormais de vérifier si une image, une vidéo ou un son a été généré ou modifié par l’intelligence artificielle. Une détection fiable, reposant sur une empreinte numérique invisible, mais malheureusement limitée aux contenus produits par les outils IA de Google.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/b466b40580da80db6ddd.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Face à la multiplication des images et vidéos générées par l’intelligence artificielle sur le web, <a target="_blank" class="link" href="https://blog.google/technology/ai/verify-google-ai-videos-gemini-app/" data-type="link">Google</a> déploie dans <a target="_blank" class="link" href="https://gemini.google.com/app?hl=fr" data-type="link">Gemini</a> une nouvelle fonctionnalité de vérification. Elle permet d’indiquer si un contenu a été créé ou modifié par l’IA grâce à une signature numérique intégrée directement lors de sa génération. Cette signature n’est présente que sur les contenus issus des outils d’intelligence artificielle de Google.</p><h2 dir="ltr" id="ad777" class=""><strong>Gemini peut analyser images, vidéos et sons générés par l’IA</strong></h2><p dir="ltr">Pour utiliser cette fonctionnalité, il suffit d’importer une image ou une vidéo dans Gemini et de poser une question du type :« <em>Ce contenu a-t-il été généré à l’aide de l’intelligence artificielle ?</em> »</p><p dir="ltr">Gemini recherche alors le filigrane numérique invisible, appelé <a target="_blank" class="link" href="https://ai.google.dev/responsible/docs/safeguards/synthid?hl=fr" data-type="link">SynthID</a>, intégré dans les pixels ou dans le signal audio. Cette signature indique que le contenu a été produit par une IA de Google. L’outil est également capable d’analyser l’audio présent dans une vidéo et d’identifier précisément les segments générés artificiellement.</p><p dir="ltr">La réponse fournit un contexte détaillé, en précisant quels éléments visuels ou sonores ont permis d’aboutir à cette conclusion, en plus de confirmer la présence du filigrane SynthID.</p><p dir="ltr">Cette fonctionnalité prolonge celle annoncée il y a un mois pour la reconnaissance des images générées par l’IA. Elle est disponible pour tous, dans toutes les langues, aussi bien dans l’application Gemini que sur sa version web, que nous avons testée.</p><h2 dir="ltr" id="4e3058" class=""><strong>Une détection fiable, mais strictement limitée aux outils de Google</strong></h2><p dir="ltr">La limite principale est assumée, Gemini ne peut identifier que les contenus générés ou modifiés par les outils de Google intégrant <a target="_blank" class="link" href="https://ai.google.dev/responsible/docs/safeguards/synthid?hl=fr" data-type="link">SynthID</a>. Il ne pourra donc pas détecter une vidéo produite par <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-sora-2-le-tiktok-des-deepfakes-par-openai" data-type="link">Sora</a> ni une image générée par<a target="_blank" class="link" href="https://openai.com/fr-FR/index/dall-e/" data-type="link"> DALL·E</a>, par exemple.</p><p dir="ltr">Malgré cette restriction, il s’agit d’un pas important vers plus de transparence. Les outils de génération de Google sont de plus en plus performants et largement diffusés en ligne, comme Imagen 3 ou <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link">Nano Banana</a> pour les images, et Veo 3 ou Flow pour la vidéo.</p><p dir="ltr">La règle affichée par <a target="_blank" class="link" href="https://blog.google/technology/ai/verify-google-ai-videos-gemini-app/" data-type="link">Google</a> est claire : <em>tout ce qui sort des générateurs média Google accessibles au public (</em><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link"><em>Gemini</em></a><em>, Veo, </em><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link"><em>Nano Banana</em></a><em>) est tagué SynthID par défaut</em></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/137b4c926b66d2c1c323.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">En l’absence de signature numérique, Gemini peut tout de même proposer une analyse plus classique. Il s’appuie alors sur des indices visuels et sonores comme les textures, éclairage, géométrie ou cohérence globale pour estimer si un contenu a probablement été généré ou modifié par l’IA. Une approche utile, mais qui ne garantit pas une certitude absolue.</p><p dir="ltr">Google précise enfin que les fichiers analysés ne doivent pas dépasser 100 Mo ni 90 secondes. Les vidéos plus longues doivent donc être découpées.</p><h2 dir="ltr" id="437ca" class=""><strong>Google en avance sur la vérification native des contenus IA</strong></h2><p dir="ltr">Google prend une longueur d’avance, à ce jour, aucun concurrent direct de Gemini ne propose un outil public de vérification basé sur une signature numérique intégrée nativement aux contenus générés.</p><p dir="ltr">OpenAI a bien développé des outils internes capables de détecter les images générées par <a target="_blank" class="link" href="https://openai.com/fr-FR/index/dall-e/" data-type="link">DALL·E 3</a> et d’y intégrer des systèmes d’empreinte numérique, mais ceux-ci ne sont pas accessibles sous la forme d’un bouton de vérification dans <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/grand-debrief-nov-25-3-ans-de-chatgpt-google-contre-attaque-et-les-robots-se-lavent-ils-les-mains" data-type="link">ChatGPT</a>.</p><p dir="ltr">D’autres modèles comme <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/grand-debrief-claude-3-apple-chansons-par-ia-cyberattaques-mars-24" data-type="link">Claude</a>, <a target="_blank" class="link" href="https://chat.mistral.ai/chat" data-type="link">Le Chat</a> ou DeepSeek peuvent analyser images et vidéos et signaler des incohérences visuelles ou techniques, mais sans jamais pouvoir garantir un résultat fiable à 100 %, comme ils le précisent eux-mêmes.</p><p dir="ltr">C’est également le cas des logiciels tiers spécialisés, très efficace dans la détection de contenus générés par IA (Sightengine, Hive Moderation, Truepic, Microsoft Video Authenticator) aujourd’hui utilisés par certains médias et agences gouvernementales, mais qui restent fondées sur des probabilités plutôt que sur une identification native du contenu.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/4224f3a9af17d5fee5d3.jpg" alt="Google détecte désormais avec certitude les vidéos générées par l’IA, mais uniquement celles issues de ses propres outils" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Avec son IA Gemini, Google permet désormais de vérifier si une image, une vidéo ou un son a été généré ou modifié par l’intelligence artificielle. Une détection fiable, reposant sur une empreinte numérique invisible, mais malheureusement limitée aux contenus produits par les outils IA de Google.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/b466b40580da80db6ddd.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Face à la multiplication des images et vidéos générées par l’intelligence artificielle sur le web, <a target="_blank" class="link" href="https://blog.google/technology/ai/verify-google-ai-videos-gemini-app/" data-type="link">Google</a> déploie dans <a target="_blank" class="link" href="https://gemini.google.com/app?hl=fr" data-type="link">Gemini</a> une nouvelle fonctionnalité de vérification. Elle permet d’indiquer si un contenu a été créé ou modifié par l’IA grâce à une signature numérique intégrée directement lors de sa génération. Cette signature n’est présente que sur les contenus issus des outils d’intelligence artificielle de Google.</p><h2 dir="ltr" id="ad777" class=""><strong>Gemini peut analyser images, vidéos et sons générés par l’IA</strong></h2><p dir="ltr">Pour utiliser cette fonctionnalité, il suffit d’importer une image ou une vidéo dans Gemini et de poser une question du type :« <em>Ce contenu a-t-il été généré à l’aide de l’intelligence artificielle ?</em> »</p><p dir="ltr">Gemini recherche alors le filigrane numérique invisible, appelé <a target="_blank" class="link" href="https://ai.google.dev/responsible/docs/safeguards/synthid?hl=fr" data-type="link">SynthID</a>, intégré dans les pixels ou dans le signal audio. Cette signature indique que le contenu a été produit par une IA de Google. L’outil est également capable d’analyser l’audio présent dans une vidéo et d’identifier précisément les segments générés artificiellement.</p><p dir="ltr">La réponse fournit un contexte détaillé, en précisant quels éléments visuels ou sonores ont permis d’aboutir à cette conclusion, en plus de confirmer la présence du filigrane SynthID.</p><p dir="ltr">Cette fonctionnalité prolonge celle annoncée il y a un mois pour la reconnaissance des images générées par l’IA. Elle est disponible pour tous, dans toutes les langues, aussi bien dans l’application Gemini que sur sa version web, que nous avons testée.</p><h2 dir="ltr" id="4e3058" class=""><strong>Une détection fiable, mais strictement limitée aux outils de Google</strong></h2><p dir="ltr">La limite principale est assumée, Gemini ne peut identifier que les contenus générés ou modifiés par les outils de Google intégrant <a target="_blank" class="link" href="https://ai.google.dev/responsible/docs/safeguards/synthid?hl=fr" data-type="link">SynthID</a>. Il ne pourra donc pas détecter une vidéo produite par <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-sora-2-le-tiktok-des-deepfakes-par-openai" data-type="link">Sora</a> ni une image générée par<a target="_blank" class="link" href="https://openai.com/fr-FR/index/dall-e/" data-type="link"> DALL·E</a>, par exemple.</p><p dir="ltr">Malgré cette restriction, il s’agit d’un pas important vers plus de transparence. Les outils de génération de Google sont de plus en plus performants et largement diffusés en ligne, comme Imagen 3 ou <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link">Nano Banana</a> pour les images, et Veo 3 ou Flow pour la vidéo.</p><p dir="ltr">La règle affichée par <a target="_blank" class="link" href="https://blog.google/technology/ai/verify-google-ai-videos-gemini-app/" data-type="link">Google</a> est claire : <em>tout ce qui sort des générateurs média Google accessibles au public (</em><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link"><em>Gemini</em></a><em>, Veo, </em><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link"><em>Nano Banana</em></a><em>) est tagué SynthID par défaut</em></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/137b4c926b66d2c1c323.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">En l’absence de signature numérique, Gemini peut tout de même proposer une analyse plus classique. Il s’appuie alors sur des indices visuels et sonores comme les textures, éclairage, géométrie ou cohérence globale pour estimer si un contenu a probablement été généré ou modifié par l’IA. Une approche utile, mais qui ne garantit pas une certitude absolue.</p><p dir="ltr">Google précise enfin que les fichiers analysés ne doivent pas dépasser 100 Mo ni 90 secondes. Les vidéos plus longues doivent donc être découpées.</p><h2 dir="ltr" id="437ca" class=""><strong>Google en avance sur la vérification native des contenus IA</strong></h2><p dir="ltr">Google prend une longueur d’avance, à ce jour, aucun concurrent direct de Gemini ne propose un outil public de vérification basé sur une signature numérique intégrée nativement aux contenus générés.</p><p dir="ltr">OpenAI a bien développé des outils internes capables de détecter les images générées par <a target="_blank" class="link" href="https://openai.com/fr-FR/index/dall-e/" data-type="link">DALL·E 3</a> et d’y intégrer des systèmes d’empreinte numérique, mais ceux-ci ne sont pas accessibles sous la forme d’un bouton de vérification dans <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/grand-debrief-nov-25-3-ans-de-chatgpt-google-contre-attaque-et-les-robots-se-lavent-ils-les-mains" data-type="link">ChatGPT</a>.</p><p dir="ltr">D’autres modèles comme <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/grand-debrief-claude-3-apple-chansons-par-ia-cyberattaques-mars-24" data-type="link">Claude</a>, <a target="_blank" class="link" href="https://chat.mistral.ai/chat" data-type="link">Le Chat</a> ou DeepSeek peuvent analyser images et vidéos et signaler des incohérences visuelles ou techniques, mais sans jamais pouvoir garantir un résultat fiable à 100 %, comme ils le précisent eux-mêmes.</p><p dir="ltr">C’est également le cas des logiciels tiers spécialisés, très efficace dans la détection de contenus générés par IA (Sightengine, Hive Moderation, Truepic, Microsoft Video Authenticator) aujourd’hui utilisés par certains médias et agences gouvernementales, mais qui restent fondées sur des probabilités plutôt que sur une identification native du contenu.</p>]]></content:encoded><category>IA</category><category>Technologies</category></item><item><title>La CNIL lance l’application FantomApp pour aider les adolescents sur les réseaux sociaux</title><pubDate>Wed, 17 Dec 2025 12:15:00 GMT</pubDate><link>https://mondenumerique.info/blog/la-cnil-lance-lapplication-fantomapp-un-outil-pour-aider-les-adolescents-sur-les-rseaux-sociaux</link><guid isPermalink="false">6942a367e7f5157c9647e018</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/8e7d82237143c55c292d.jpg" alt="La CNIL lance l’application FantomApp pour aider les adolescents sur les réseaux sociaux" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>L’autorité nationale de l’informatique et des libertés met en place une application gratuite, destinée aux jeunes, mais pas uniquement, pour les accompagner dans leurs usages des réseaux sociaux et du numérique. Une initiative développée avec les jeunes internautes eux-mêmes.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/7a99ff57243b726b42c8.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Si vous avez un adolescent à la maison, proche des 10 à 15 ans, cet outil est fait pour lui. Destinée à lui permettre de mieux se protéger dans son usage des réseaux sociaux et des services en ligne, c’est une application mobile entièrement gratuite, disponible sur les appareils <a target="_blank" class="link" href="https://apps.apple.com/fr/app/fantomapp/id6748403431" data-type="link">Apple</a> et <a target="_blank" class="link" href="https://play.google.com/store/apps/details?id=cnil.fantom_app.twa&amp;utm_source=emea_Med" data-type="link">Android</a>, mais également depuis un navigateur (<a target="_blank" class="link" href="https://fantomapp.fr/home" data-type="link">fantomapp.fr</a>)</p><p dir="ltr">Le projet porté par la Commission nationale de l’informatique et des libertés (<a target="_blank" class="link" href="https://www.cnil.fr/fr" data-type="link">CNIL</a>) est financé par l’Union européenne dans le cadre du programme (<em>Citizens, Equality, Rights and Values Programme</em> (CERV). Selln la CNIL, «&nbsp;<a target="_blank" class="link" href="https://www.cnil.fr/fr/fantomapp" data-type="link"><em>FantomApp</em></a><em> vous aide à garder le contrôle de vos données sur les réseaux sociaux grâce à des conseils et des outils concrets.»</em></p><h2 dir="ltr" id="27431" class="">Une interface simple en trois parties</h2><p dir="ltr">Sur l’application, que nous avons testée, l’interface est simple et organisée en trois rubriques « Problème », « Outils » et « Me sécuriser » ainsi qu’une page d’accueil.</p><p dir="ltr">La première rubrique est dédiée aux situations problématiques que l’on peut rencontrer en ligne (cyberharcèlement, vol de données ou de comptes, piratage, tentatives d’arnaque, chantage sexuel ou encore suppression de contenus problématiques). L’utilisateur répond à quelques questions simples, puis accède à des informations utiles, aux démarches recommandées et aux contacts appropriés.</p><p dir="ltr">La section « Outils » propose trois fonctionnalités simples mais efficaces : un test de robustesse des mots de passe, un outil de floutage de photos et une analyse du niveau de visibilité des pseudonymes.</p><p dir="ltr">Enfin, « Me sécuriser » met à disposition des tutoriels guidés pour cinq grands réseaux (Instagram, TikTok, Snapchat, X et WhatsApp) afin d’aider les utilisateurs à sécuriser leurs comptes et leur vie privée. L’ensemble est clair et pédagogique, avec des captures d’écran pour chaque application, ce qui peut également être utile aux personnes moins à l’aise avec ces plateformes.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/254ee2cae57cc8c33f74.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">FantomApp indique qu’aucune information personnelle n’est collectée et qu’il n’est d’ailleurs pas nécessaire de créer un compte. Seule l’adresse IP de l’utilisateur est utilisée, celle-ci étant indispensable au fonctionnement de l’application.</p><h2 dir="ltr" id="b75dd" class="">Une initiative créée avec les adolescents eux-mêmes</h2><p dir="ltr">Cette application est le résultat de travaux d’observation menés dans les collèges, suite à une <a target="_blank" class="link" href="https://linc.cnil.fr/numerique-adolescent-et-vie-privee-publication-des-resultats-denquete-et-lancement-dun-projet" data-type="link">étude</a> réalisée en 2024 par le <a target="_blank" class="link" href="https://linc.cnil.fr" data-type="link">LINC</a> (laboratoire interdisciplinaire des sciences du numérique de la CNIL) et la mission <a target="_blank" class="link" href="https://www.cnil.fr/fr/les-membres-du-collectif-educnum" data-type="link">EducNum</a> de la CNIL sur les pratiques numériques des adolescents et la protection de leur vie privée.</p><p dir="ltr">Pendant le développement, une démarche collaborative a associé des collégiens au projet, répondant à leurs besoins en matière de protection de leurs données et à leurs méconnaissances sur certains sujets : « <em>Une application réellement pensée par et pour les jeunes. FantomApp s’appuie sur leurs pratiques et valorise leurs propres compétences numériques, afin de les aider à développer les bons réflexes</em>. »</p><p dir="ltr">La CNIL rappelle que 79% des enfants, ont accès à un téléphone portable avant 11 ans. D’où l’importance d’un accompagnement et d’une éducation dans leurs usages, et notamment sur les réseaux sociaux, qui demeurent pointé du doigt par les autorités.</p><h2 dir="ltr" id="3e9408" class="">Un outil pédagogique accessible à tous les publics</h2><p dir="ltr">Tout récemment, le 26 novembre, la CNIL a publié <a target="_blank" class="link" href="https://www.cnil.fr/fr/cybercriminalite-risques-et-consequences-pour-les-donnees-personnelles" data-type="link">les résultats d’un sondage commandé</a>, et on apprenait que « <em>41% des répondants ont subi au moins une utilisation frauduleuse de leurs données personnelles au cours des trois dernières années</em> ». Et que bien souvent, si cela vous est déjà arrivé, vous ne savez peut-être pas toujours comment réagir.</p><p dir="ltr">Pour avoir nous-mêmes testé l’application, force est de constater qu’elle regroupe efficacement des réponses aux problèmes rencontrés sur les réseaux sociaux, ainsi que des outils utiles à tous, comme le test de robustesse des mots de passe. Centraliser ces fonctionnalités au sein d’un seul service, initialement pensé pour les adolescents, permet aussi à un public plus large d’obtenir rapidement des réponses en cas de difficulté et d’adopter les bons réflexes en ligne.</p><p></p><p></p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/8e7d82237143c55c292d.jpg" alt="La CNIL lance l’application FantomApp pour aider les adolescents sur les réseaux sociaux" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>L’autorité nationale de l’informatique et des libertés met en place une application gratuite, destinée aux jeunes, mais pas uniquement, pour les accompagner dans leurs usages des réseaux sociaux et du numérique. Une initiative développée avec les jeunes internautes eux-mêmes.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/7a99ff57243b726b42c8.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Si vous avez un adolescent à la maison, proche des 10 à 15 ans, cet outil est fait pour lui. Destinée à lui permettre de mieux se protéger dans son usage des réseaux sociaux et des services en ligne, c’est une application mobile entièrement gratuite, disponible sur les appareils <a target="_blank" class="link" href="https://apps.apple.com/fr/app/fantomapp/id6748403431" data-type="link">Apple</a> et <a target="_blank" class="link" href="https://play.google.com/store/apps/details?id=cnil.fantom_app.twa&amp;utm_source=emea_Med" data-type="link">Android</a>, mais également depuis un navigateur (<a target="_blank" class="link" href="https://fantomapp.fr/home" data-type="link">fantomapp.fr</a>)</p><p dir="ltr">Le projet porté par la Commission nationale de l’informatique et des libertés (<a target="_blank" class="link" href="https://www.cnil.fr/fr" data-type="link">CNIL</a>) est financé par l’Union européenne dans le cadre du programme (<em>Citizens, Equality, Rights and Values Programme</em> (CERV). Selln la CNIL, «&nbsp;<a target="_blank" class="link" href="https://www.cnil.fr/fr/fantomapp" data-type="link"><em>FantomApp</em></a><em> vous aide à garder le contrôle de vos données sur les réseaux sociaux grâce à des conseils et des outils concrets.»</em></p><h2 dir="ltr" id="27431" class="">Une interface simple en trois parties</h2><p dir="ltr">Sur l’application, que nous avons testée, l’interface est simple et organisée en trois rubriques « Problème », « Outils » et « Me sécuriser » ainsi qu’une page d’accueil.</p><p dir="ltr">La première rubrique est dédiée aux situations problématiques que l’on peut rencontrer en ligne (cyberharcèlement, vol de données ou de comptes, piratage, tentatives d’arnaque, chantage sexuel ou encore suppression de contenus problématiques). L’utilisateur répond à quelques questions simples, puis accède à des informations utiles, aux démarches recommandées et aux contacts appropriés.</p><p dir="ltr">La section « Outils » propose trois fonctionnalités simples mais efficaces : un test de robustesse des mots de passe, un outil de floutage de photos et une analyse du niveau de visibilité des pseudonymes.</p><p dir="ltr">Enfin, « Me sécuriser » met à disposition des tutoriels guidés pour cinq grands réseaux (Instagram, TikTok, Snapchat, X et WhatsApp) afin d’aider les utilisateurs à sécuriser leurs comptes et leur vie privée. L’ensemble est clair et pédagogique, avec des captures d’écran pour chaque application, ce qui peut également être utile aux personnes moins à l’aise avec ces plateformes.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/254ee2cae57cc8c33f74.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">FantomApp indique qu’aucune information personnelle n’est collectée et qu’il n’est d’ailleurs pas nécessaire de créer un compte. Seule l’adresse IP de l’utilisateur est utilisée, celle-ci étant indispensable au fonctionnement de l’application.</p><h2 dir="ltr" id="b75dd" class="">Une initiative créée avec les adolescents eux-mêmes</h2><p dir="ltr">Cette application est le résultat de travaux d’observation menés dans les collèges, suite à une <a target="_blank" class="link" href="https://linc.cnil.fr/numerique-adolescent-et-vie-privee-publication-des-resultats-denquete-et-lancement-dun-projet" data-type="link">étude</a> réalisée en 2024 par le <a target="_blank" class="link" href="https://linc.cnil.fr" data-type="link">LINC</a> (laboratoire interdisciplinaire des sciences du numérique de la CNIL) et la mission <a target="_blank" class="link" href="https://www.cnil.fr/fr/les-membres-du-collectif-educnum" data-type="link">EducNum</a> de la CNIL sur les pratiques numériques des adolescents et la protection de leur vie privée.</p><p dir="ltr">Pendant le développement, une démarche collaborative a associé des collégiens au projet, répondant à leurs besoins en matière de protection de leurs données et à leurs méconnaissances sur certains sujets : « <em>Une application réellement pensée par et pour les jeunes. FantomApp s’appuie sur leurs pratiques et valorise leurs propres compétences numériques, afin de les aider à développer les bons réflexes</em>. »</p><p dir="ltr">La CNIL rappelle que 79% des enfants, ont accès à un téléphone portable avant 11 ans. D’où l’importance d’un accompagnement et d’une éducation dans leurs usages, et notamment sur les réseaux sociaux, qui demeurent pointé du doigt par les autorités.</p><h2 dir="ltr" id="3e9408" class="">Un outil pédagogique accessible à tous les publics</h2><p dir="ltr">Tout récemment, le 26 novembre, la CNIL a publié <a target="_blank" class="link" href="https://www.cnil.fr/fr/cybercriminalite-risques-et-consequences-pour-les-donnees-personnelles" data-type="link">les résultats d’un sondage commandé</a>, et on apprenait que « <em>41% des répondants ont subi au moins une utilisation frauduleuse de leurs données personnelles au cours des trois dernières années</em> ». Et que bien souvent, si cela vous est déjà arrivé, vous ne savez peut-être pas toujours comment réagir.</p><p dir="ltr">Pour avoir nous-mêmes testé l’application, force est de constater qu’elle regroupe efficacement des réponses aux problèmes rencontrés sur les réseaux sociaux, ainsi que des outils utiles à tous, comme le test de robustesse des mots de passe. Centraliser ces fonctionnalités au sein d’un seul service, initialement pensé pour les adolescents, permet aussi à un public plus large d’obtenir rapidement des réponses en cas de difficulté et d’adopter les bons réflexes en ligne.</p><p></p><p></p>]]></content:encoded><category>réseaux sociaux</category></item><item><title>&quot;Très grave&quot; cyberattaque contre le ministère de l’Intérieur : toutes les hypothèses envisageables</title><pubDate>Wed, 17 Dec 2025 06:30:00 GMT</pubDate><link>https://mondenumerique.info/blog/tres-grave-cyberattaque-contre-le-ministere-de-lintrieur-toutes-les-hypotheses-envisageables</link><guid isPermalink="false">6941d56bce44f798abb952cf</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/467f264b20675e827c58.jpg" alt=""Très grave" cyberattaque contre le ministère de l’Intérieur : toutes les hypothèses envisageables" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Le ministère de l’Intérieur confirme avoir subi, il y a quelques jours, une intrusion dans ses systèmes informatiques. Cette attaque est revendiquée par un groupe de cybercriminels lié à BreachForums, une plateforme connue dans le milieu du piratage.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/b9a31cbe634e2e8e9f27.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Des pirates au coeur de l'un des plus importants ministères français. </strong></span>La cyberattaque a été constatée dans la nuit du 11 au 12 décembre, quand les équipes du ministère de l’Intérieur ont repéré des activités anormales sur leurs réseaux. Le lendemain, le ministre de l’Intérieur, <a target="_blank" class="link" href="https://www.interieur.gouv.fr/ministres/laurent-nunez" data-type="link">Laurent Nuñez</a>, a confirmé une attaque informatique du ministère de l’Intérieur au micro du média <a target="_blank" class="link" href="https://www.rtl.fr/actu/justice-faits-divers/un-assaillant-a-pu-penetrer-sur-un-certain-nombre-de-fichiers-sur-rtl-laurent-nu-ez-confirme-une-attaque-informatique-au-ministere-de-l-interieur-7900577003" data-type="link">RTL</a> : « <em>Il y a un assaillant qui a pu pénétrer sur un certain nombre de fichiers. Donc on a mis en place les procédures de protection habituelles.</em> » Il a indiqué que ce piratage visait les messageries du ministère, sans pouvoir donner de précisions sur le fait que des fichiers aient été ou non dérobés.</p><h2 dir="ltr" id="17db7" class="">Une cyberattaque revendiquant 16 millions de données</h2><p dir="ltr">C’est le samedi 13 décembre à 18 h, qu’un message signé « <a target="_blank" class="link" href="" data-type="link">Indra</a> » a surgi sur BreachForums, un forum clandestin de cybercriminalité consacré au piratage et à la revente de données volées. Dans ce message de revendication, les cybercriminels promettent « <em>l'’impact le plus important jamais vu en France</em> » et parlent d’une « <em>fuite publique complète </em>».</p><p dir="ltr">Ils disent avoir mené une infiltration pendant plusieurs semaines, dans un service interne du ministère, le CHEOPS (Circulation Hiérarchisée des Enregistrements Opérationnels de la Police Sécurisés) et dans des boîtes mail professionnelles d’enquêteurs. Ils laissent entendre qu'ils auraient réussi à extraire plus de <strong>16 millions de données</strong>, notamment des informations sensibles normalement réservées au ministère. Parmi leur butin, les TAJ (antécédents judiciaires), FPR (personnes recherchées), ainsi que des données d’identification et financières.</p><p dir="ltr">Comme souvent dans les cyberattaques, ils ont fixé des conditions. Les attaquants exigent d’être contactés par l’État, avec un ultimatum d’une semaine réduit lundi à 48 heures, sous menace de revendre les données à d’autres groupes ou États, ou de les rendre publiques.</p><p dir="ltr">À ce jour, aucune preuve concrète n’a été rendue publique, aucun échantillon de données n’a été diffusé, ce qui fait douter le ministère de l’Intérieur de l’authenticité avérée de cette cyberattaque, qui reste toutefois prise très au sérieux par les autorités.</p><h2 dir="ltr" id="b2a32" class="">Quelle est la réaction de l’État ?</h2><p dir="ltr">Une enquête judiciaire a été immédiatement ouverte par l’Office anti-cybercriminalité, avec des signalements à la procureure de Paris et à la <a target="_blank" class="link" href="https://www.cnil.fr/fr" data-type="link">CNIL</a> (Commission nationale de l’informatique et des libertés).</p><p dir="ltr">Des mesures ont été mises en place pour protéger les services, comme le déploiement de l’authentification à deux facteurs pour l’ensemble des agents, le verrouillage des accès aux systèmes informatiques, ainsi que rappel des bonnes pratiques numériques auprès des personnels.</p><p dir="ltr">Ce mardi soir, le ministère de l’Intérieur, par une information transmise à BFMTV et relayée par le journaliste Raphaël Grably sur X, concernant l’enquête en cours, a déclaré : « <em>Une revendication émanant d’un individu se réclamant de la plateforme BreachForums, déjà connue dans le cadre de précédentes affaires de cybersécurité, a été constatée ce week-end.</em> » Il précise que la portée de son attaque fait toujours « <em>objet de vérifications approfondies</em> ».</p><h2 dir="ltr" id="512f78" class="">Et si cette cyberattaque n’était qu’un cheval de Troie ?</h2><p dir="ltr">En effet, quelques points subsistent à quelques heures de l’échéance lancée par les cybercriminels. Le ministère reste silencieux sur les accès exacts atteints par la fuite de données, pourtant clamés par les pirates. Aucune donnée n’a été rendue publique ou transmise sur les plateformes de cybercriminalité, afin de prouver leur coup orchestré, depuis plusieurs semaines selon eux. Pas de preuve non plus, de navigations comme des captures d’écran d’applicatifs internes, des journaux d’accès ou d’un accès à un canal de messagerie contrôlé avec les autorités.</p><p dir="ltr">Cette cyberattaque pourrait-elle servir aux cybercriminels à observer la réaction de l’État dans une telle situation, afin de révéler ses failles et de mieux les contourner dans une future attaque ? D’autant que les services de l’État sont de plus en plus pris pour cible.</p><p dir="ltr">Que va faire l’État ? Céder à une telle demande paraît fort peu probable, car c'est clairement contraire à la doctrine de <a target="_blank" class="link" href="https://cyber.gouv.fr/" data-type="link">l'ANSSI</a>. </p><p dir="ltr">Reste l'éternelle question de la responsabilité : qui se cache derrière cette attaque ? De cybermalfaiteurs professionnels à des pirates agissant pour le compte d'un Etat, le panel est des auteurs potentiels et vaste et rien ne permet, en l'état, de privilégier une piste. </p><p></p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/467f264b20675e827c58.jpg" alt=""Très grave" cyberattaque contre le ministère de l’Intérieur : toutes les hypothèses envisageables" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Le ministère de l’Intérieur confirme avoir subi, il y a quelques jours, une intrusion dans ses systèmes informatiques. Cette attaque est revendiquée par un groupe de cybercriminels lié à BreachForums, une plateforme connue dans le milieu du piratage.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/b9a31cbe634e2e8e9f27.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>Des pirates au coeur de l'un des plus importants ministères français. </strong></span>La cyberattaque a été constatée dans la nuit du 11 au 12 décembre, quand les équipes du ministère de l’Intérieur ont repéré des activités anormales sur leurs réseaux. Le lendemain, le ministre de l’Intérieur, <a target="_blank" class="link" href="https://www.interieur.gouv.fr/ministres/laurent-nunez" data-type="link">Laurent Nuñez</a>, a confirmé une attaque informatique du ministère de l’Intérieur au micro du média <a target="_blank" class="link" href="https://www.rtl.fr/actu/justice-faits-divers/un-assaillant-a-pu-penetrer-sur-un-certain-nombre-de-fichiers-sur-rtl-laurent-nu-ez-confirme-une-attaque-informatique-au-ministere-de-l-interieur-7900577003" data-type="link">RTL</a> : « <em>Il y a un assaillant qui a pu pénétrer sur un certain nombre de fichiers. Donc on a mis en place les procédures de protection habituelles.</em> » Il a indiqué que ce piratage visait les messageries du ministère, sans pouvoir donner de précisions sur le fait que des fichiers aient été ou non dérobés.</p><h2 dir="ltr" id="17db7" class="">Une cyberattaque revendiquant 16 millions de données</h2><p dir="ltr">C’est le samedi 13 décembre à 18 h, qu’un message signé « <a target="_blank" class="link" href="" data-type="link">Indra</a> » a surgi sur BreachForums, un forum clandestin de cybercriminalité consacré au piratage et à la revente de données volées. Dans ce message de revendication, les cybercriminels promettent « <em>l'’impact le plus important jamais vu en France</em> » et parlent d’une « <em>fuite publique complète </em>».</p><p dir="ltr">Ils disent avoir mené une infiltration pendant plusieurs semaines, dans un service interne du ministère, le CHEOPS (Circulation Hiérarchisée des Enregistrements Opérationnels de la Police Sécurisés) et dans des boîtes mail professionnelles d’enquêteurs. Ils laissent entendre qu'ils auraient réussi à extraire plus de <strong>16 millions de données</strong>, notamment des informations sensibles normalement réservées au ministère. Parmi leur butin, les TAJ (antécédents judiciaires), FPR (personnes recherchées), ainsi que des données d’identification et financières.</p><p dir="ltr">Comme souvent dans les cyberattaques, ils ont fixé des conditions. Les attaquants exigent d’être contactés par l’État, avec un ultimatum d’une semaine réduit lundi à 48 heures, sous menace de revendre les données à d’autres groupes ou États, ou de les rendre publiques.</p><p dir="ltr">À ce jour, aucune preuve concrète n’a été rendue publique, aucun échantillon de données n’a été diffusé, ce qui fait douter le ministère de l’Intérieur de l’authenticité avérée de cette cyberattaque, qui reste toutefois prise très au sérieux par les autorités.</p><h2 dir="ltr" id="b2a32" class="">Quelle est la réaction de l’État ?</h2><p dir="ltr">Une enquête judiciaire a été immédiatement ouverte par l’Office anti-cybercriminalité, avec des signalements à la procureure de Paris et à la <a target="_blank" class="link" href="https://www.cnil.fr/fr" data-type="link">CNIL</a> (Commission nationale de l’informatique et des libertés).</p><p dir="ltr">Des mesures ont été mises en place pour protéger les services, comme le déploiement de l’authentification à deux facteurs pour l’ensemble des agents, le verrouillage des accès aux systèmes informatiques, ainsi que rappel des bonnes pratiques numériques auprès des personnels.</p><p dir="ltr">Ce mardi soir, le ministère de l’Intérieur, par une information transmise à BFMTV et relayée par le journaliste Raphaël Grably sur X, concernant l’enquête en cours, a déclaré : « <em>Une revendication émanant d’un individu se réclamant de la plateforme BreachForums, déjà connue dans le cadre de précédentes affaires de cybersécurité, a été constatée ce week-end.</em> » Il précise que la portée de son attaque fait toujours « <em>objet de vérifications approfondies</em> ».</p><h2 dir="ltr" id="512f78" class="">Et si cette cyberattaque n’était qu’un cheval de Troie ?</h2><p dir="ltr">En effet, quelques points subsistent à quelques heures de l’échéance lancée par les cybercriminels. Le ministère reste silencieux sur les accès exacts atteints par la fuite de données, pourtant clamés par les pirates. Aucune donnée n’a été rendue publique ou transmise sur les plateformes de cybercriminalité, afin de prouver leur coup orchestré, depuis plusieurs semaines selon eux. Pas de preuve non plus, de navigations comme des captures d’écran d’applicatifs internes, des journaux d’accès ou d’un accès à un canal de messagerie contrôlé avec les autorités.</p><p dir="ltr">Cette cyberattaque pourrait-elle servir aux cybercriminels à observer la réaction de l’État dans une telle situation, afin de révéler ses failles et de mieux les contourner dans une future attaque ? D’autant que les services de l’État sont de plus en plus pris pour cible.</p><p dir="ltr">Que va faire l’État ? Céder à une telle demande paraît fort peu probable, car c'est clairement contraire à la doctrine de <a target="_blank" class="link" href="https://cyber.gouv.fr/" data-type="link">l'ANSSI</a>. </p><p dir="ltr">Reste l'éternelle question de la responsabilité : qui se cache derrière cette attaque ? De cybermalfaiteurs professionnels à des pirates agissant pour le compte d'un Etat, le panel est des auteurs potentiels et vaste et rien ne permet, en l'état, de privilégier une piste. </p><p></p>]]></content:encoded><category>Cyber</category></item><item><title>Pionnier des robots aspirateurs, iRobot ne résiste pas à la concurrence chinoise et annonce sa faillite</title><pubDate>Mon, 15 Dec 2025 11:17:00 GMT</pubDate><link>https://mondenumerique.info/blog/pionnier-des-robots-aspirateurs-irobot-na-pas-rsist-la-concurrence-chinoise-et-annonce-sa-faillite</link><guid isPermalink="false">693ff4b06814c48beb41b3d3</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/7ee1a1a9dbc9f9278b98.jpg" alt="Pionnier des robots aspirateurs, iRobot ne résiste pas à la concurrence chinoise et annonce sa faillite" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>iRobot, l’un des précurseurs de l’innovation grand public dans les robots aspirateurs, devenu célèbre avec son <em>Roomba </em>lancé en 2002, n’a pas résisté à la concurrence chinoise. L’entreprise annonce sa faillite et son rachat par son principal partenaire industriel, le chinois Shenzhen Picea Robotics.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/a82d34e2e7ce7e1758d4.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Quelques semaines avant le grand salon annuel des nouvelles technologies, le <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/redif-retour-sur-les-pepites-du-ces-2025-gary-shapiro-julien-villeret-luc-julia" data-type="link">CES (Consumer Electronics Show)</a>, où les innovations dans les aspirateurs robots sont nombreuses (<a target="_blank" class="link" href="https://www.irobot.fr" data-type="link">iRobot</a> y participait souvent pour lancer ses modèles phares, comme le j7+ avec détection d’obstacles), le pionnier du secteur tire sa révérence.</p><h2 dir="ltr" id="42da3" class="">Pionnier de l'aspirateur robot</h2><p dir="ltr">iRobot vient de déposer son bilan auprès du tribunal du Delaware aux États-Unis, une procédure qui doit aboutir à un rachat complet par <a target="_blank" class="link" href="https://www.reemanrobot.com/?gad_source=1&amp;gad_campaignid=16497546421&amp;gbraid=0AAAAABTYPY2M_fpv7NZkzggSwbJ4ApTcE&amp;gclid=Cj0KCQiAgP_JBhD-ARIsANpEMxzpPHaufOW5-t6zNVe8UZPHZvefYApVL80sBXMjE37YsVdsmcT1jEcaAgSVEALw_wcB" data-type="link">Shenzhen Picea Robotics,</a> son principal partenaire industriel, déjà chargé de la fabrication d’une partie de ses aspirateurs. La situation économique était critique pour la société américaine, dont la valorisation atteignait 3,56 milliards de dollars en 2021. Aujourd’hui, elle ne représente que 140 millions et l’action s’est effondrée de 90% en cinq ans.</p><p dir="ltr">L’entreprise iRobot est pourtant connue pour son fameux <a target="_blank" class="link" href="https://www.irobot.fr/fr_FR/roomba-robots.html" data-type="link">Roomba</a>, premier aspirateur robot vraiment commercialisé avec succès il y a 23 ans, ainsi que pour ses robots laveurs de sols (gamme Braava) et aussi pour ses modèles deux en un, aspirateur et laveur (Roomba Combo), toujours orientés vers l’entretien domestique. Mais elle n'a pu résister face à la déferlante chinoise. </p><h2 dir="ltr" id="42da3" class="">Rachat par Shenzhen Picea Robotics</h2><p dir="ltr">L’opération est prévue pour février 2026 et iRobot deviendra une société privée entièrement détenue par Picea, qui quittera la Bourse. On ne connaît pas encore la stratégie que décidera Picea pour l’avenir, mais iRobot se veut rassurant quant au soutien technique de ses appareils a indiqué dans son <a target="_blank" class="link" href="https://media.irobot.com/2025-12-14-iRobot-Announces-Strategic-Transaction-to-Drive-Long-Term-Growth-Plan" data-type="link">communiqué</a> : « <em>iRobot continuera à fonctionner dans le cours normal, sans interruption prévue de ses fonctionnalités d’application, de ses programmes clients, de ses partenaires mondiaux, de ses relations avec la chaîne d’approvisionnement ou de son support continu avec les produits</em>. »</p><p dir="ltr">Shenzhen Picea Robotics est un mastodonte, fondé en 2016, spécialisé dans la conception, la fabrication, l’assemblage et la commercialisation de robots aspirateurs haut de gamme, avec une expertise en navigation LiDAR, serpillières rotatives et designs compacts. Selon des analyses sectorielles, elle représente 30% du marché mondial des modèles premium. On parle de Picea Robotics comme un ODM (<a target="_blank" class="link" href="https://en.wikipedia.org/wiki/Original_design_manufacturer" data-type="link">Original Design Manufacturer</a>) produisant des robots aspirateurs pour des marques tierces tout en développant sa propre gamme sous la marque 3i, vendue notamment aux États-Unis.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/010b434c66f8862419a4.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><h2 dir="ltr" id="a56f58" class="">Concurrence chinoise et hausse des coûts</h2><p dir="ltr">Derrière les hypothèses qui ont conduit à cette faillite d’iRobot, se cache l’ombre de la forte concurrence du marché chinois depuis plusieurs années. Proposant des aspirateurs robots souvent moins chers, car intégralement produits en Chine et bénéficiant de plus de technologies et de fonctionnalités. Parmi eux on retrouve Roborock, Ecovacs, Dreame, Xiaomi et même récemment le leader des drones DJI, qui s’est initié au marché des aspirateurs robots.</p><p dir="ltr">L’autre conséquence concerne les coûts de fabrication de ses aspirateurs robots. Dès 2018, les tarifs sur les produits chinois (10% initialement, puis 25%) avaient déjà fait chuter les marges d’iRobot. Plus récemment, ce sont les droits de douane imposés par les États-Unis, une taxe de 46% sur les importations en provenance du Vietnam, où iRobot fabrique ses aspirateurs destinés au marché américain. Ces pressions économiques, combinées à la concurrence chinoise, ont érodé sa compétitivité sur le long terme.</p><h2 dir="ltr" id="0288" class="">L’espoir raté du rachat par Amazon</h2><p dir="ltr"><a target="_blank" class="link" href="https://www.irobot.fr" data-type="link">iRobot</a> aurait pu changer de visage et bénéficier du soutien et du savoir-faire dans la maison connectée d’Amazon. Le 4 août 2022, un accord définitif avait été signé pour acquérir iRobot pour environ 1,7 milliard de dollars, avec l’idée d’intégrer les innovations de son aspirateur robot Roomba, à son écosystème connecté. Le projet a pris fin en janvier 2024 suite à l’opposition des régulateurs européens, qui craignaient une position dominante d’Amazon sur le marché des appareils connectés. Amazon a même dû verser 94 millions de dollars de frais de rupture, mais l’échec a accéléré les difficultés financières d’iRobot, menant à des licenciements et finalement à sa faillite avec rachat par Picea Robotics.</p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/7ee1a1a9dbc9f9278b98.jpg" alt="Pionnier des robots aspirateurs, iRobot ne résiste pas à la concurrence chinoise et annonce sa faillite" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>iRobot, l’un des précurseurs de l’innovation grand public dans les robots aspirateurs, devenu célèbre avec son <em>Roomba </em>lancé en 2002, n’a pas résisté à la concurrence chinoise. L’entreprise annonce sa faillite et son rachat par son principal partenaire industriel, le chinois Shenzhen Picea Robotics.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/a82d34e2e7ce7e1758d4.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Quelques semaines avant le grand salon annuel des nouvelles technologies, le <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/redif-retour-sur-les-pepites-du-ces-2025-gary-shapiro-julien-villeret-luc-julia" data-type="link">CES (Consumer Electronics Show)</a>, où les innovations dans les aspirateurs robots sont nombreuses (<a target="_blank" class="link" href="https://www.irobot.fr" data-type="link">iRobot</a> y participait souvent pour lancer ses modèles phares, comme le j7+ avec détection d’obstacles), le pionnier du secteur tire sa révérence.</p><h2 dir="ltr" id="42da3" class="">Pionnier de l'aspirateur robot</h2><p dir="ltr">iRobot vient de déposer son bilan auprès du tribunal du Delaware aux États-Unis, une procédure qui doit aboutir à un rachat complet par <a target="_blank" class="link" href="https://www.reemanrobot.com/?gad_source=1&amp;gad_campaignid=16497546421&amp;gbraid=0AAAAABTYPY2M_fpv7NZkzggSwbJ4ApTcE&amp;gclid=Cj0KCQiAgP_JBhD-ARIsANpEMxzpPHaufOW5-t6zNVe8UZPHZvefYApVL80sBXMjE37YsVdsmcT1jEcaAgSVEALw_wcB" data-type="link">Shenzhen Picea Robotics,</a> son principal partenaire industriel, déjà chargé de la fabrication d’une partie de ses aspirateurs. La situation économique était critique pour la société américaine, dont la valorisation atteignait 3,56 milliards de dollars en 2021. Aujourd’hui, elle ne représente que 140 millions et l’action s’est effondrée de 90% en cinq ans.</p><p dir="ltr">L’entreprise iRobot est pourtant connue pour son fameux <a target="_blank" class="link" href="https://www.irobot.fr/fr_FR/roomba-robots.html" data-type="link">Roomba</a>, premier aspirateur robot vraiment commercialisé avec succès il y a 23 ans, ainsi que pour ses robots laveurs de sols (gamme Braava) et aussi pour ses modèles deux en un, aspirateur et laveur (Roomba Combo), toujours orientés vers l’entretien domestique. Mais elle n'a pu résister face à la déferlante chinoise. </p><h2 dir="ltr" id="42da3" class="">Rachat par Shenzhen Picea Robotics</h2><p dir="ltr">L’opération est prévue pour février 2026 et iRobot deviendra une société privée entièrement détenue par Picea, qui quittera la Bourse. On ne connaît pas encore la stratégie que décidera Picea pour l’avenir, mais iRobot se veut rassurant quant au soutien technique de ses appareils a indiqué dans son <a target="_blank" class="link" href="https://media.irobot.com/2025-12-14-iRobot-Announces-Strategic-Transaction-to-Drive-Long-Term-Growth-Plan" data-type="link">communiqué</a> : « <em>iRobot continuera à fonctionner dans le cours normal, sans interruption prévue de ses fonctionnalités d’application, de ses programmes clients, de ses partenaires mondiaux, de ses relations avec la chaîne d’approvisionnement ou de son support continu avec les produits</em>. »</p><p dir="ltr">Shenzhen Picea Robotics est un mastodonte, fondé en 2016, spécialisé dans la conception, la fabrication, l’assemblage et la commercialisation de robots aspirateurs haut de gamme, avec une expertise en navigation LiDAR, serpillières rotatives et designs compacts. Selon des analyses sectorielles, elle représente 30% du marché mondial des modèles premium. On parle de Picea Robotics comme un ODM (<a target="_blank" class="link" href="https://en.wikipedia.org/wiki/Original_design_manufacturer" data-type="link">Original Design Manufacturer</a>) produisant des robots aspirateurs pour des marques tierces tout en développant sa propre gamme sous la marque 3i, vendue notamment aux États-Unis.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/010b434c66f8862419a4.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><h2 dir="ltr" id="a56f58" class="">Concurrence chinoise et hausse des coûts</h2><p dir="ltr">Derrière les hypothèses qui ont conduit à cette faillite d’iRobot, se cache l’ombre de la forte concurrence du marché chinois depuis plusieurs années. Proposant des aspirateurs robots souvent moins chers, car intégralement produits en Chine et bénéficiant de plus de technologies et de fonctionnalités. Parmi eux on retrouve Roborock, Ecovacs, Dreame, Xiaomi et même récemment le leader des drones DJI, qui s’est initié au marché des aspirateurs robots.</p><p dir="ltr">L’autre conséquence concerne les coûts de fabrication de ses aspirateurs robots. Dès 2018, les tarifs sur les produits chinois (10% initialement, puis 25%) avaient déjà fait chuter les marges d’iRobot. Plus récemment, ce sont les droits de douane imposés par les États-Unis, une taxe de 46% sur les importations en provenance du Vietnam, où iRobot fabrique ses aspirateurs destinés au marché américain. Ces pressions économiques, combinées à la concurrence chinoise, ont érodé sa compétitivité sur le long terme.</p><h2 dir="ltr" id="0288" class="">L’espoir raté du rachat par Amazon</h2><p dir="ltr"><a target="_blank" class="link" href="https://www.irobot.fr" data-type="link">iRobot</a> aurait pu changer de visage et bénéficier du soutien et du savoir-faire dans la maison connectée d’Amazon. Le 4 août 2022, un accord définitif avait été signé pour acquérir iRobot pour environ 1,7 milliard de dollars, avec l’idée d’intégrer les innovations de son aspirateur robot Roomba, à son écosystème connecté. Le projet a pris fin en janvier 2024 suite à l’opposition des régulateurs européens, qui craignaient une position dominante d’Amazon sur le marché des appareils connectés. Amazon a même dû verser 94 millions de dollars de frais de rupture, mais l’échec a accéléré les difficultés financières d’iRobot, menant à des licenciements et finalement à sa faillite avec rachat par Picea Robotics.</p>]]></content:encoded><category>robots</category></item><item><title>Nouvelle version de ChatGPT 5.2 : la réponse d&apos;OpenAI à Google</title><pubDate>Fri, 12 Dec 2025 11:29:00 GMT</pubDate><link>https://mondenumerique.info/blog/nouvelle-version-de-chatgpt-52-la-rponse-google</link><guid isPermalink="false">693c00802c94c02f9ea3c191</guid><description><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/0c5cc779ebc355e40b36.jpg" alt="Nouvelle version de ChatGPT 5.2 : la réponse d'OpenAI à Google" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>OpenAI lance ChatGPT dans une nouvelle version 5.2, à peine un mois après sa précédente mouture, alors que son patron Sam Altman a déclenché un « code rouge » pour contrer ses concurrents, notamment Google et son modèle Gemini 3 Pro.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/6fca034a109a43f6da18.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Il n'est pas fondamentalement différent mais il est censé être meilleur, meilleur en tout ou presque. <a target="_blank" class="link" href="https://openai.com/fr-FR/index/introducing-gpt-5-2/" data-type="link">GPT 5.2</a> est la nouvelle version du célèbre modèle d'IA d'<a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-ia-generative-google-microsoft-openai-la-surenchere-continue" data-type="link">OpenAI</a>, dégainée presque précipitamment, à peine un mois après la précédente. Derrière ces améliorations se cache la volonté d’être le meilleur face à ses concurrents, car la guerre des modèles d’intelligence artificielle continue plus que jamais. </p><h2 dir="ltr" id="654fb8" class=""><strong>Une version d’abord destinée aux professionnels et aux développeurs</strong></h2><p dir="ltr"><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-ia-generative-google-microsoft-openai-la-surenchere-continue" data-type="link">OpenAI</a> présente sa version 5.2 comme « <em>le modèle de pointe le plus avancé pour le travail professionnel et les agents exécutés sur de longues durées </em>». Cette version améliore le raisonnement, la gestion de contextes très longs, jusqu’à environ 400 000 tokens (unité de base de texte utilisée pour traiter et générer du langage naturel).</p><p dir="ltr">Le modèle progresse aussi sur son aspect <strong>multimodal</strong>, avec une meilleure compréhension des images et des documents, le traitement de gros corpus (rapports, codebases) et dans la génération de sorties longues, comme des rapports complets ou des applications entières.</p><p dir="ltr">Selon OpenAI, GPT-5.2 <em>Thinking</em> atteint un niveau « <em>expert</em> » sur GDPval, un benchmark interne évaluant des tâches réelles de 44 métiers, ce qui le positionne comme un assistant de travail haut de gamme. Des tableaux comparatifs publiés par OpenAI montrent l’évolution apportée par la 5.2 par rapport à la 5.1, dans de nombreux domaines d’application destinés majoritairement aux usages professionnels.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/4cc8f8071acfe142b75d.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">GPT-5.2 se <strong>décline en trois variantes</strong> : Instant (rapide pour l’usage quotidien), Thinking (raisonnement profond pour les tâches complexes) et Pro (précision renforcée pour les tâches critiques).</p><p dir="ltr">Elle est dès à présent déployée pour les abonnés payants (Plus, Pro, Team, Enterprise), avec accès immédiat via l’app et l’API, avant un déploiement progressif aux utilisateurs gratuits, comme OpenAI l’a déjà fait pour ses précédentes versions.</p><h2 dir="ltr" id="3f206" class="">« Code rouge » pour Sam Altman d’OpenAI</h2><p dir="ltr">En début de semaine, son patron Sam Altman avait ordonné à toutes ses équipes de se mobiliser pour accélérer la recherche et développement, notamment face à <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-ia-generative-google-microsoft-openai-la-surenchere-continue" data-type="link">Google</a>, qui vient de publier une version repensée de son agent de recherche Gemini Deep Research. </p><p dir="ltr">En novembre, Google a déployé son nouveau modèle <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-ovhcloud-gemini-3-et-resilience-numerique" data-type="link">Gemini</a> 3 Pro, qui a écrasé tous les records d’efficacité selon divers classements et comparatifs, se positionnant comme le meilleur pour les développeurs. En même temps, sur le terrain de la génération d’images, le modèle <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link">Nano Banana Pro</a> dans Gemini a surpris tout le monde par ses progrès et son réalisme.</p><h2 dir="ltr" id="71e9d" class="">Une course au développement</h2><p dir="ltr">Si vous utilisez ces outils, vous pouvez vous demander à quoi bon sortir de nouveaux modèles, alors que vous n’exploitez encore qu’une infime partie de leurs possibilités. Pour ces entreprises, c’est un marché énorme de plusieurs centaines de millions d’utilisateurs, qui leur permet d’attirer des partenariats et des investissements, comme Disney qui vient d’investir un milliard dans OpenAI.</p><p></p>]]></description><content:encoded><![CDATA[<p><img src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/0c5cc779ebc355e40b36.jpg" alt="Nouvelle version de ChatGPT 5.2 : la réponse d'OpenAI à Google" /></p><p dir="ltr"><span style="color: rgb(0, 0, 0); font-size: 18px"><strong>OpenAI lance ChatGPT dans une nouvelle version 5.2, à peine un mois après sa précédente mouture, alors que son patron Sam Altman a déclenché un « code rouge » pour contrer ses concurrents, notamment Google et son modèle Gemini 3 Pro.</strong></span></p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/6fca034a109a43f6da18.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">Il n'est pas fondamentalement différent mais il est censé être meilleur, meilleur en tout ou presque. <a target="_blank" class="link" href="https://openai.com/fr-FR/index/introducing-gpt-5-2/" data-type="link">GPT 5.2</a> est la nouvelle version du célèbre modèle d'IA d'<a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-ia-generative-google-microsoft-openai-la-surenchere-continue" data-type="link">OpenAI</a>, dégainée presque précipitamment, à peine un mois après la précédente. Derrière ces améliorations se cache la volonté d’être le meilleur face à ses concurrents, car la guerre des modèles d’intelligence artificielle continue plus que jamais. </p><h2 dir="ltr" id="654fb8" class=""><strong>Une version d’abord destinée aux professionnels et aux développeurs</strong></h2><p dir="ltr"><a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-ia-generative-google-microsoft-openai-la-surenchere-continue" data-type="link">OpenAI</a> présente sa version 5.2 comme « <em>le modèle de pointe le plus avancé pour le travail professionnel et les agents exécutés sur de longues durées </em>». Cette version améliore le raisonnement, la gestion de contextes très longs, jusqu’à environ 400 000 tokens (unité de base de texte utilisée pour traiter et générer du langage naturel).</p><p dir="ltr">Le modèle progresse aussi sur son aspect <strong>multimodal</strong>, avec une meilleure compréhension des images et des documents, le traitement de gros corpus (rapports, codebases) et dans la génération de sorties longues, comme des rapports complets ou des applications entières.</p><p dir="ltr">Selon OpenAI, GPT-5.2 <em>Thinking</em> atteint un niveau « <em>expert</em> » sur GDPval, un benchmark interne évaluant des tâches réelles de 44 métiers, ce qui le positionne comme un assistant de travail haut de gamme. Des tableaux comparatifs publiés par OpenAI montrent l’évolution apportée par la 5.2 par rapport à la 5.1, dans de nombreux domaines d’application destinés majoritairement aux usages professionnels.</p><img data-type="imageBlock" src="https://sites.podcastpage.io/63d4f4d470d270001687a1d6/media/4cc8f8071acfe142b75d.jpg" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">GPT-5.2 se <strong>décline en trois variantes</strong> : Instant (rapide pour l’usage quotidien), Thinking (raisonnement profond pour les tâches complexes) et Pro (précision renforcée pour les tâches critiques).</p><p dir="ltr">Elle est dès à présent déployée pour les abonnés payants (Plus, Pro, Team, Enterprise), avec accès immédiat via l’app et l’API, avant un déploiement progressif aux utilisateurs gratuits, comme OpenAI l’a déjà fait pour ses précédentes versions.</p><h2 dir="ltr" id="3f206" class="">« Code rouge » pour Sam Altman d’OpenAI</h2><p dir="ltr">En début de semaine, son patron Sam Altman avait ordonné à toutes ses équipes de se mobiliser pour accélérer la recherche et développement, notamment face à <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-ia-generative-google-microsoft-openai-la-surenchere-continue" data-type="link">Google</a>, qui vient de publier une version repensée de son agent de recherche Gemini Deep Research. </p><p dir="ltr">En novembre, Google a déployé son nouveau modèle <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/debrief-transat-ovhcloud-gemini-3-et-resilience-numerique" data-type="link">Gemini</a> 3 Pro, qui a écrasé tous les records d’efficacité selon divers classements et comparatifs, se positionnant comme le meilleur pour les développeurs. En même temps, sur le terrain de la génération d’images, le modèle <a target="_blank" class="link" href="https://mondenumerique.info/podcast/monde-numerique/episode/lhebdo-2211-ia-le-choc-gemini-3-nano-banana" data-type="link">Nano Banana Pro</a> dans Gemini a surpris tout le monde par ses progrès et son réalisme.</p><h2 dir="ltr" id="71e9d" class="">Une course au développement</h2><p dir="ltr">Si vous utilisez ces outils, vous pouvez vous demander à quoi bon sortir de nouveaux modèles, alors que vous n’exploitez encore qu’une infime partie de leurs possibilités. Pour ces entreprises, c’est un marché énorme de plusieurs centaines de millions d’utilisateurs, qui leur permet d’attirer des partenariats et des investissements, comme Disney qui vient d’investir un milliard dans OpenAI.</p><p></p>]]></content:encoded><category>IA</category></item><item><title>Apple : bientôt un cerveau pour la maison connectée ?</title><pubDate>Fri, 12 Dec 2025 09:19:00 GMT</pubDate><link>https://mondenumerique.info/blog/apple-prpare-bien-un-cerveau-pour-la-maison-connecte</link><guid isPermalink="false">693be26d2c94c02f9ea3c172</guid><description><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/8462c5e53661778704c1.png" alt="Apple : bientôt un cerveau pour la maison connectée ?" /></p><p dir="ltr"><span style="font-size: 18px"><strong>Discrètement, Apple serait bien en train de plancher sur un nouvel appareil clé pour la maison intelligente, un hub central doté d’un écran et de fonctions avancées. C'est ce que révèle un bout du code d’iOS. L'appareil serait boosté à l'IA.</strong></span></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/8462c5e53661778704c1.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">L'analyse des programmes des produits high-tech révèle parfois des secrets enfouis au fond des lignes de code (à condition de savoir les déchiffrer). En examinant le code d’iOS 26, des spécialistes ont découvert de quoi relancer les spéculations autour d’un <strong>futur appareil Apple pour la maison connectée</strong>. C'est ce que révèle le site américain spécialisé <a target="_blank" class="link" href="https://www.macworld.com/article/3007751/leaked-code-spills-details-of-mystery-apple-smart-home-accessory.html" data-type="link">MacWorld</a>.</p><p dir="ltr">Ces mentions évoqueraient clairement un appareil domestique inédit, doté d’un écran, d’une caméra et de capacités de contrôle centralisé pour la maison. Apple n’a rien annoncé officiellement, mais ce type d’indice logiciel a souvent, par le passé, précédé de plusieurs mois le lancement de nouveaux produits.</p><p dir="ltr">Le nom « <strong>HomePad</strong> », qui circule déjà, n’est pas confirmé par Apple, mais il illustre bien l’ambition du projet : créer un point de pilotage unique pour la maison connectée, à mi-chemin entre un HomePod, un iPad et une Apple TV.</p><h2 dir="ltr" id="236ae8" class="">Un véritable projet de "hub"</h2><p dir="ltr">Selon les éléments observés dans iOS, le futur hub d’Apple serait équipé d’un écran tactile d’environ sept pouces, capable d’afficher l’état de la maison en temps réel : lumières allumées, température, caméras, alarmes ou scénarios automatisés. Il permettrait aussi de lancer des appels vidéo, d’afficher des rappels, des calendriers ou des informations contextuelles selon la personne reconnue devant l’écran.</p><p dir="ltr">La présence évoquée d’une caméra frontale et de la reconnaissance faciale laisse entrevoir un usage très personnalisé. Le hub pourrait adapter son affichage et ses réponses en fonction de l’utilisateur identifié, en affichant par exemple ses rendez-vous, ses messages ou ses habitudes domestiques. L’appareil ferait également office de relais sécurisé pour les accessoires connectés, même lorsque l’utilisateur est absent.</p><p dir="ltr">En clair, Apple chercherait à installer un véritable tableau de bord intelligent au cœur du foyer.</p><h2 dir="ltr" id="78734" class="">Apple déjà présent dans la maison connectée</h2><p dir="ltr">Apple n’arrive pas sur un terrain vierge. La marque est déjà bien positionnée avec <a target="_blank" class="link" href="https://www.apple.com/fr/home-app/" data-type="link"><strong>HomeKit</strong></a>, sa plateforme logicielle qui permet de connecter et de piloter des objets compatibles, désormais aussi via le standard <a target="_blank" class="link" href="https://fr.wikipedia.org/wiki/Matter_(standard)" data-type="link">Matter</a>. Les HomePod et HomePod mini servent déjà de hubs techniques, assurant la communication entre les accessoires et l’écosystème Apple.</p><p dir="ltr">Mais jusqu’ici, l’expérience reste largement dépendante de l’iPhone ou de l’iPad. Il manque un point d’ancrage visible, simple et partagé par toute la famille, là où <a target="_blank" class="link" href="https://www.amazon.fr/b?ie=UTF8&amp;node=28247742031" data-type="link">Amazon</a> et <a target="_blank" class="link" href="https://home.google.com/intl/fr_fr/welcome/" data-type="link">Google</a> ont pris de l’avance avec leurs écrans connectés.</p><h2 dir="ltr" id="2ee85" class="">L’angle mort de l’intelligence artificielle</h2><p dir="ltr">Reste une question centrale : <strong>l’intelligence artificielle</strong>. Apple accuse un retard largement reconnu dans ce domaine, en particulier sur les assistants vocaux. Siri peine encore à rivaliser avec les modèles conversationnels avancés déployés par ses concurrents, capables de comprendre le contexte, d’enchaîner les demandes complexes et d’anticiper les besoins.</p><p dir="ltr">Ce futur hub pourrait donc être un test grandeur nature pour la nouvelle stratégie d’Apple en matière d’IA dite « personnelle » et embarquée, avec des traitements réalisés localement pour préserver la vie privée. Une approche cohérente avec l’ADN d’Apple, mais qui devra convaincre face à des concurrents déjà très agressifs sur le terrain de l’intelligence domestique.</p><blockquote><h2 dir="ltr" id="b9199" class="">Un hub domotique, c’est quoi exactement ?</h2><p dir="ltr">Un hub domotique, c'est le cerveau d’une maison connectée. Il sert d’intermédiaire entre les différents objets intelligents — éclairage, volets, chauffage, caméras, capteurs, serrures — et l’utilisateur. C’est lui qui centralise les commandes, gère les automatisations et permet de piloter l’ensemble depuis une interface unique, à la voix, à l’écran ou à distance.</p><p dir="ltr">Aujourd’hui, ce rôle est souvent assuré par des enceintes connectées avec écran chez Amazon ou Google. Apple, de son côté, se repose surtout sur le HomePod et l’iPhone, sans véritable interface visuelle dédiée dans la maison.</p><p dir="ltr"><strong>Pour en savoir plus, abonnez-vous au nouveau podcast </strong><a target="_blank" class="link" href="https://mondenumerique.info/maison-connectee" data-type="link"><strong>Maison Connectée</strong></a><strong>.</strong></p></blockquote>]]></description><content:encoded><![CDATA[<p><img src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/8462c5e53661778704c1.png" alt="Apple : bientôt un cerveau pour la maison connectée ?" /></p><p dir="ltr"><span style="font-size: 18px"><strong>Discrètement, Apple serait bien en train de plancher sur un nouvel appareil clé pour la maison intelligente, un hub central doté d’un écran et de fonctions avancées. C'est ce que révèle un bout du code d’iOS. L'appareil serait boosté à l'IA.</strong></span></p><img data-type="imageBlock" src="https://sites.beamly.com/63d4f4d470d270001687a1d6/media/8462c5e53661778704c1.png" alt="" data-align="left" data-width="100%" style="max-width: 100%" class=""><p dir="ltr">L'analyse des programmes des produits high-tech révèle parfois des secrets enfouis au fond des lignes de code (à condition de savoir les déchiffrer). En examinant le code d’iOS 26, des spécialistes ont découvert de quoi relancer les spéculations autour d’un <strong>futur appareil Apple pour la maison connectée</strong>. C'est ce que révèle le site américain spécialisé <a target="_blank" class="link" href="https://www.macworld.com/article/3007751/leaked-code-spills-details-of-mystery-apple-smart-home-accessory.html" data-type="link">MacWorld</a>.</p><p dir="ltr">Ces mentions évoqueraient clairement un appareil domestique inédit, doté d’un écran, d’une caméra et de capacités de contrôle centralisé pour la maison. Apple n’a rien annoncé officiellement, mais ce type d’indice logiciel a souvent, par le passé, précédé de plusieurs mois le lancement de nouveaux produits.</p><p dir="ltr">Le nom « <strong>HomePad</strong> », qui circule déjà, n’est pas confirmé par Apple, mais il illustre bien l’ambition du projet : créer un point de pilotage unique pour la maison connectée, à mi-chemin entre un HomePod, un iPad et une Apple TV.</p><h2 dir="ltr" id="236ae8" class="">Un véritable projet de "hub"</h2><p dir="ltr">Selon les éléments observés dans iOS, le futur hub d’Apple serait équipé d’un écran tactile d’environ sept pouces, capable d’afficher l’état de la maison en temps réel : lumières allumées, température, caméras, alarmes ou scénarios automatisés. Il permettrait aussi de lancer des appels vidéo, d’afficher des rappels, des calendriers ou des informations contextuelles selon la personne reconnue devant l’écran.</p><p dir="ltr">La présence évoquée d’une caméra frontale et de la reconnaissance faciale laisse entrevoir un usage très personnalisé. Le hub pourrait adapter son affichage et ses réponses en fonction de l’utilisateur identifié, en affichant par exemple ses rendez-vous, ses messages ou ses habitudes domestiques. L’appareil ferait également office de relais sécurisé pour les accessoires connectés, même lorsque l’utilisateur est absent.</p><p dir="ltr">En clair, Apple chercherait à installer un véritable tableau de bord intelligent au cœur du foyer.</p><h2 dir="ltr" id="78734" class="">Apple déjà présent dans la maison connectée</h2><p dir="ltr">Apple n’arrive pas sur un terrain vierge. La marque est déjà bien positionnée avec <a target="_blank" class="link" href="https://www.apple.com/fr/home-app/" data-type="link"><strong>HomeKit</strong></a>, sa plateforme logicielle qui permet de connecter et de piloter des objets compatibles, désormais aussi via le standard <a target="_blank" class="link" href="https://fr.wikipedia.org/wiki/Matter_(standard)" data-type="link">Matter</a>. Les HomePod et HomePod mini servent déjà de hubs techniques, assurant la communication entre les accessoires et l’écosystème Apple.</p><p dir="ltr">Mais jusqu’ici, l’expérience reste largement dépendante de l’iPhone ou de l’iPad. Il manque un point d’ancrage visible, simple et partagé par toute la famille, là où <a target="_blank" class="link" href="https://www.amazon.fr/b?ie=UTF8&amp;node=28247742031" data-type="link">Amazon</a> et <a target="_blank" class="link" href="https://home.google.com/intl/fr_fr/welcome/" data-type="link">Google</a> ont pris de l’avance avec leurs écrans connectés.</p><h2 dir="ltr" id="2ee85" class="">L’angle mort de l’intelligence artificielle</h2><p dir="ltr">Reste une question centrale : <strong>l’intelligence artificielle</strong>. Apple accuse un retard largement reconnu dans ce domaine, en particulier sur les assistants vocaux. Siri peine encore à rivaliser avec les modèles conversationnels avancés déployés par ses concurrents, capables de comprendre le contexte, d’enchaîner les demandes complexes et d’anticiper les besoins.</p><p dir="ltr">Ce futur hub pourrait donc être un test grandeur nature pour la nouvelle stratégie d’Apple en matière d’IA dite « personnelle » et embarquée, avec des traitements réalisés localement pour préserver la vie privée. Une approche cohérente avec l’ADN d’Apple, mais qui devra convaincre face à des concurrents déjà très agressifs sur le terrain de l’intelligence domestique.</p><blockquote><h2 dir="ltr" id="b9199" class="">Un hub domotique, c’est quoi exactement ?</h2><p dir="ltr">Un hub domotique, c'est le cerveau d’une maison connectée. Il sert d’intermédiaire entre les différents objets intelligents — éclairage, volets, chauffage, caméras, capteurs, serrures — et l’utilisateur. C’est lui qui centralise les commandes, gère les automatisations et permet de piloter l’ensemble depuis une interface unique, à la voix, à l’écran ou à distance.</p><p dir="ltr">Aujourd’hui, ce rôle est souvent assuré par des enceintes connectées avec écran chez Amazon ou Google. Apple, de son côté, se repose surtout sur le HomePod et l’iPhone, sans véritable interface visuelle dédiée dans la maison.</p><p dir="ltr"><strong>Pour en savoir plus, abonnez-vous au nouveau podcast </strong><a target="_blank" class="link" href="https://mondenumerique.info/maison-connectee" data-type="link"><strong>Maison Connectée</strong></a><strong>.</strong></p></blockquote>]]></content:encoded><category>Produits Tech</category><category>Apple</category><category>Domotique</category></item></channel></rss>